Der beste Weg, eine Unicode-URL in ASCII (UTF-8 Prozent-escaped) in Python zu konvertieren?
Frage
ich frage mich, was der beste Weg ist - oder wenn es eine einfache Art und Weise mit der Standardbibliothek ist - eine URL mit Unicode-Zeichen im Domainnamen und der Pfad in der entsprechenden ASCII-URL zu konvertieren, verschlüsselten mit Domain als IDNA und der Pfad% -encoded, gemäß RFC 3986.
Ich bekomme von dem Benutzer eine URL in UTF-8. Also, wenn sie in http://➡.ws/♥
getippt habe ich 'http://\xe2\x9e\xa1.ws/\xe2\x99\xa5'
in Python. Und was ich will aus der ASCII-Version. 'http://xn--hgi.ws/%E2%99%A5'
Was ich im Moment tun, um die URL aufgeteilt in mehr Teile über einen regulären Ausdruck, und dann manuell IDNA codiert die Domäne, und separat den Pfad und die Abfrage-String mit unterschiedlichen urllib.quote()
Anrufen kodieren.
# url is UTF-8 here, eg: url = u'http://➡.ws/㉌'.encode('utf-8')
match = re.match(r'([a-z]{3,5})://(.+\.[a-z0-9]{1,6})'
r'(:\d{1,5})?(/.*?)(\?.*)?$', url, flags=re.I)
if not match:
raise BadURLException(url)
protocol, domain, port, path, query = match.groups()
try:
domain = unicode(domain, 'utf-8')
except UnicodeDecodeError:
return '' # bad UTF-8 chars in domain
domain = domain.encode('idna')
if port is None:
port = ''
path = urllib.quote(path)
if query is None:
query = ''
else:
query = urllib.quote(query, safe='=&?/')
url = protocol + '://' + domain + port + path + query
# url is ASCII here, eg: url = 'http://xn--hgi.ws/%E3%89%8C'
Ist das richtig? Irgendwelche bessere Vorschläge? Gibt es eine einfache Standard-Library-Funktion, dies zu tun?
Lösung
Code:
import urlparse, urllib
def fixurl(url):
# turn string into unicode
if not isinstance(url,unicode):
url = url.decode('utf8')
# parse it
parsed = urlparse.urlsplit(url)
# divide the netloc further
userpass,at,hostport = parsed.netloc.rpartition('@')
user,colon1,pass_ = userpass.partition(':')
host,colon2,port = hostport.partition(':')
# encode each component
scheme = parsed.scheme.encode('utf8')
user = urllib.quote(user.encode('utf8'))
colon1 = colon1.encode('utf8')
pass_ = urllib.quote(pass_.encode('utf8'))
at = at.encode('utf8')
host = host.encode('idna')
colon2 = colon2.encode('utf8')
port = port.encode('utf8')
path = '/'.join( # could be encoded slashes!
urllib.quote(urllib.unquote(pce).encode('utf8'),'')
for pce in parsed.path.split('/')
)
query = urllib.quote(urllib.unquote(parsed.query).encode('utf8'),'=&?/')
fragment = urllib.quote(urllib.unquote(parsed.fragment).encode('utf8'))
# put it back together
netloc = ''.join((user,colon1,pass_,at,host,colon2,port))
return urlparse.urlunsplit((scheme,netloc,path,query,fragment))
print fixurl('http://\xe2\x9e\xa1.ws/\xe2\x99\xa5')
print fixurl('http://\xe2\x9e\xa1.ws/\xe2\x99\xa5/%2F')
print fixurl(u'http://Åsa:abc123@➡.ws:81/admin')
print fixurl(u'http://➡.ws/admin')
Ausgabe:
http://xn--hgi.ws/%E2%99%A5
http://xn--hgi.ws/%E2%99%A5/%2F
http://%C3%85sa:abc123@xn--hgi.ws:81/admin
http://xn--hgi.ws/admin
Lesen Sie mehr:
- urllib.quote ()
- urlparse.urlparse ()
- urlparse.urlunparse ()
- urlparse.urlsplit ()
- urlparse.urlunsplit ()
Edits:
- Fest der Fall bereits in der Zeichenfolge angegebenen Zeichen.
- Changed
urlparse
/urlunparse
/urlsplit
urlunsplit
. - Benutzer und Anschlussinformationen mit dem Hostnamen nicht kodieren. (Danke Jehija)
- Wenn "@" fehlt, nicht behandeln den Host / Port als Benutzer / pass! (Danke hupf)
Andere Tipps
Sie den Code gegeben durch MizardX ist nicht 100% richtig. Dieses Beispiel wird nicht funktionieren:
example.com/folder/?page=2
Besuche django.utils.encoding.iri_to_uri () Unicode-URL in ASCII-URLs zu konvertieren.
gibt es einig RFC-3896 URL-Analyse laufende Arbeiten (zB im Rahmen des Summer of Code), aber nichts in der Standardbibliothek noch AFAIK - und nicht viel auf der uri kodiert Seite der Dinge entweder wieder AFAIK. So könnte man genauso gut mit MizardX eleganten Ansatz gehen.
Okay, mit diesen Kommentaren und einigem Bug-Fixing in meinem eigenen Code (es handhabt gar nicht alle Fragmente), ich habe mit der folgenden canonurl()
Funktion kommt - gibt eine kanonische, ASCII Form der URL:
import re
import urllib
import urlparse
def canonurl(url):
r"""Return the canonical, ASCII-encoded form of a UTF-8 encoded URL, or ''
if the URL looks invalid.
>>> canonurl(' ')
''
>>> canonurl('www.google.com')
'http://www.google.com/'
>>> canonurl('bad-utf8.com/path\xff/file')
''
>>> canonurl('svn://blah.com/path/file')
'svn://blah.com/path/file'
>>> canonurl('1234://badscheme.com')
''
>>> canonurl('bad$scheme://google.com')
''
>>> canonurl('site.badtopleveldomain')
''
>>> canonurl('site.com:badport')
''
>>> canonurl('http://123.24.8.240/blah')
'http://123.24.8.240/blah'
>>> canonurl('http://123.24.8.240:1234/blah?q#f')
'http://123.24.8.240:1234/blah?q#f'
>>> canonurl('\xe2\x9e\xa1.ws') # tinyarro.ws
'http://xn--hgi.ws/'
>>> canonurl(' http://www.google.com:80/path/file;params?query#fragment ')
'http://www.google.com:80/path/file;params?query#fragment'
>>> canonurl('http://\xe2\x9e\xa1.ws/\xe2\x99\xa5')
'http://xn--hgi.ws/%E2%99%A5'
>>> canonurl('http://\xe2\x9e\xa1.ws/\xe2\x99\xa5/pa%2Fth')
'http://xn--hgi.ws/%E2%99%A5/pa/th'
>>> canonurl('http://\xe2\x9e\xa1.ws/\xe2\x99\xa5/pa%2Fth;par%2Fams?que%2Fry=a&b=c')
'http://xn--hgi.ws/%E2%99%A5/pa/th;par/ams?que/ry=a&b=c'
>>> canonurl('http://\xe2\x9e\xa1.ws/\xe2\x99\xa5?\xe2\x99\xa5#\xe2\x99\xa5')
'http://xn--hgi.ws/%E2%99%A5?%E2%99%A5#%E2%99%A5'
>>> canonurl('http://\xe2\x9e\xa1.ws/%e2%99%a5?%E2%99%A5#%E2%99%A5')
'http://xn--hgi.ws/%E2%99%A5?%E2%99%A5#%E2%99%A5'
>>> canonurl('http://badutf8pcokay.com/%FF?%FE#%FF')
'http://badutf8pcokay.com/%FF?%FE#%FF'
>>> len(canonurl('google.com/' + 'a' * 16384))
4096
"""
# strip spaces at the ends and ensure it's prefixed with 'scheme://'
url = url.strip()
if not url:
return ''
if not urlparse.urlsplit(url).scheme:
url = 'http://' + url
# turn it into Unicode
try:
url = unicode(url, 'utf-8')
except UnicodeDecodeError:
return '' # bad UTF-8 chars in URL
# parse the URL into its components
parsed = urlparse.urlsplit(url)
scheme, netloc, path, query, fragment = parsed
# ensure scheme is a letter followed by letters, digits, and '+-.' chars
if not re.match(r'[a-z][-+.a-z0-9]*$', scheme, flags=re.I):
return ''
scheme = str(scheme)
# ensure domain and port are valid, eg: sub.domain.<1-to-6-TLD-chars>[:port]
match = re.match(r'(.+\.[a-z0-9]{1,6})(:\d{1,5})?$', netloc, flags=re.I)
if not match:
return ''
domain, port = match.groups()
netloc = domain + (port if port else '')
netloc = netloc.encode('idna')
# ensure path is valid and convert Unicode chars to %-encoded
if not path:
path = '/' # eg: 'http://google.com' -> 'http://google.com/'
path = urllib.quote(urllib.unquote(path.encode('utf-8')), safe='/;')
# ensure query is valid
query = urllib.quote(urllib.unquote(query.encode('utf-8')), safe='=&?/')
# ensure fragment is valid
fragment = urllib.quote(urllib.unquote(fragment.encode('utf-8')))
# piece it all back together, truncating it to a maximum of 4KB
url = urlparse.urlunsplit((scheme, netloc, path, query, fragment))
return url[:4096]
if __name__ == '__main__':
import doctest
doctest.testmod()
Sie könnten benutzen urlparse.urlsplit
statt, aber sonst scheinen Sie zu haben eine sehr einfache Lösung gibt.
protocol, domain, path, query, fragment = urlparse.urlsplit(url)
(Sie können die Domain und Port separat zugreifen, indem Sie den zurückgegebenen Wertes des benannten Eigenschaften zugreifen, sondern als Port Syntax immer in ASCII ist, ist es unabhängig von dem IDNA Codierungsprozess.)