Python nous permet de travailler avec des fichiers distants, peut-être que cela ne semble pas logique de cette façon, mais les fichiers distants dans ce cas ne sont rien de plus que des requêtes sur des pages Web de notre programme Python, la raison de cela peut être d'interroger à Services Web REST qui nous permettent d'obtenir des valeurs par AVOIR ou interroger directement les pages et manipuler leur contenu.
Pour y parvenir, nous utiliserons quelques-unes des nombreuses bibliothèques qu'il propose Python pour travailler avec les réseaux, supprimant ainsi les obstacles techniques et se concentrant uniquement sur son importance dans notre logique de programmation.
urllib et urllib2
Ces deux librairies urllib Oui urllib2 Ils nous permettent de faire le travail d'accès aux fichiers via le réseau comme s'ils étaient dans notre environnement local, via un simple appel à une fonction, cela peut nous servir pour beaucoup de choses, par exemple que nous pouvons utiliser un Web et avec son contenu faire des rapports dans notre programme de ce que nous pouvons y trouver.
Ces deux bibliothèques sont similaires, leur différence est que urllib2 cela peut être un peu plus sophistiqué, où si nous voulons simplement faire une requête sans autres implications, nous pouvons utiliser urllib, mais si nous voulons effectuer un processus d'authentification ou utiliser des cookies, alors urllib2 c'est peut-être le bon choix pour notre programme.
Puisque nous savons théoriquement ce dont nous avons besoin et pourquoi nous en avons besoin, voyons un petit exemple de code afin que nous comprenions clairement ce que nous pouvons faire. Dans l'exemple suivant, nous allons ouvrir un site Web à partir de notre programme, puis via des expressions régulières. nous allons extraire un lien de son contenu pour cela nous utiliserons urllib:
>>> depuis urllib import urlopen >>> webpage = urlopen ('http://www.python.org') >>> import re >>> text = webpage.read () >>> m = re.search ( 'Tutoriel', texte, re.IGNORECASE) >>> m.group (1)
Nous allons pas à pas, d'abord à partir de la bibliothèque urllib que nous importons urlopen, puis nous créons une variable appelée page Web qui est celui qui contiendra le résultat de urlopen Que ferons-nous du site officiel de Python, avec cela nous importons déjà ré Afin de travailler avec des expressions régulières, on dit que le texte est la variable qui aura le contenu de la page en lecture, on fait une recherche avec une expression régulière et enfin on regroupe le résultat, qui doit imprimer ce qui suit :
http://docs.python.org/
C'est grâce à la méthode urlopenCe que vous faites, c'est que cela nous permet de travailler avec la page Web comme s'il s'agissait d'un objet fichier, de cette manière, nous pouvons appliquer de nombreuses fonctions que nous pouvons utiliser avec ce type d'objets, même si nous voulons, nous pouvons télécharger la page et travaillez-le depuis notre local de manière très simple en utilisant la méthode urlrécupérer comme suit:
urlretrieve ('http://www.python.org', 'C: \ python_webpage.html')La seule chose que nous faisons est de passer comme deuxième paramètre le chemin dans notre environnement local où le fichier avec la copie de la page devrait être enregistré sans trop de difficulté.
Avec cela, nous terminons ce tutoriel, car nous voyons que faire des travaux plus complexes tels que l'utilisation de pages dans nos programmes est assez simple grâce aux bibliothèques de Python.
Avez-vous aimé et aidé ce tutoriel ?Vous pouvez récompenser l'auteur en appuyant sur ce bouton pour lui donner un point positif