Salut j'ai besoin d'utiliser WWW::RobotRules dans un script mais je comprend pas comment il marche exactement j'ai test� plein de soluce et je n'arrive a rien![]()
, le mieux que je suis arriv� a faire c'est
Et la catastrophe je sais pas comment r�cup�rer la sortie du programme tout ce que j'ai tent� me sort Hash:
Code : S�lectionner tout - Visualiser dans une fen�tre � part
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23 #!/usr/bin/perl -w use strict; my @site = ("http://clubic.com/robots.txt"); @site = robots(@site) sub robots { use WWW::RobotRules; my $rules = WWW::RobotRules->new('Mozilla/5.0 (compatible)'); use LWP::Simple qw(get); { foreach $resultat( @_ ) { my $robots_txt = get $resultat; $rules->parse($resultat, $robots_txt) if defined $robots_txt; } }?????????
De plus j'ai encore un prb avec ce module il ne sort que les lien Allow hors certain fichiers robots.txt ne comporte que des Disallow
De m�me auriez vous une solution pour retaper les url parce queUser-agent: *
Disallow: /s/infoprix.php
Disallow: /s/infoprix_2.php
Disallow: /shopper/infoprix_2.php
/s/infoprix.php c'est moins exploitable que htp://clubic.com/s/infoprix.php ou un exemple de sctipt complet avec robotrules parce que je s�che lamentablement.
Partager