Terminal : CURL récupérer certaines info d'une page web

  • Créateur du sujet Créateur du sujet remif
  • Date de début Date de début

remif

Membre enregistré
16 Mai 2012
4
0
33
Bonjour , je suis un vendeur sur internet , et j'ai besoin de récupérer toutes les photos sur le site de mon fournisseur , voici l'architecture du site de mon fourni :

http://fournisseur.com/rubrique.php

Il a une dixaine de rubrique , et dans chaque rubrique il affiche les produits qui correspondent :

ref :1500
ref :1234
etc...

Les référence ne se suivent pas !

Les images portent le nom de la référence du produit et sont stockées dans un dossier images (miniature et grande):

Pour le produit portant la ref : 1500 , l'image seras accessible à cette adresse :
http://fournisseur.com/images/grandes/1500.jpg

je voudrais donc savoir comment récupérer chaque image d'une catégorie avec la fonction cURL
Est-ce que je dois , récupérer l'enssemble des liens menant vers les images et apres créer un script qui les telecharges ou est-ce que je peux télécharger directement les images qui sont liées à une page web ?? (plus de 250)

J'ai déja réussis en utilisant cette ligne de code :

Bloc de code:
curl -f -O "http://fournisseur.com/images/grandes/[1000-2000].jpg"

Mais le probleme c'est qu'il y a seulement une trentaine de référence comprise entre ces deux valeurs et je ce code créer 1000 fichiers , je dois donc passer trop de temps a trier ! Est-ce possible de créer un fichier seulement pour les 30 images qui vont marcher ?

Merci