aspirer un site?

pourdl

Membre enregistré
28 Août 2009
7
0
54
salut j ai trouvé un programme qui s'appel sitesucker pour aspirer les sites internet de sorte a ce que je puisse les consulter hors ligne mon probleme est que je peux aspirer les pages mais pas les fichier qui sont telechargable. car quand je suis sous safari et que je copie le lien ca me donne javascript: of(6491); donc comme c'est pas un lien complet sitsucker ne trouve pas le fichier qq un a t il une astuce pour afficher le lien complet ? ou pour configurer sitesucker pour qu'il puisse telecharger le ficher? le site c'est du php.

merci

ps sinon je dois le faire manuellement et je vais perdre bcp de temps puis l'aspirateur de site ne sert a rien :-(.
 
Tu peux toujours essayer avec curl qui est livré avec le système.
 
C'est l'utilitaire qu'il a dégotté (voir #1).

curl est une commande en mode texte. Dans le genre j'aime bien wget.
On trouve aussi une petite interface graphique pour ce dernier, qui date un peu, CocoaWget.
 
C'est l'utilitaire qu'il a dégotté (voir #1).

curl est une commande en mode texte. Dans le genre j'aime bien wget.
On trouve aussi une petite interface graphique pour ce dernier, qui date un peu, CocoaWget.

En effet, mais il ne peut aspirer du PHP, le PHP est interprété par le serveur, donc c'est IMPOSSIBLE coté client devoir le code PHP et heureusement sinon tu aurais accès aux données sensibles...
 
Disons que cela demande des outils un peu plus malins que ceux-là, généralement scriptables, un peu comme Expect ou HttpUnit.
Mais cela dépend moins du langage (PHP, Java etc.) que de la structure intrinsèque du site.