Besoin d'aide pour faire un script
Salut j'ai besoin d'utiliser WWW::RobotRules dans un script mais je comprend pas comment il marche exactement j'ai test� plein de soluce et je n'arrive a rien :oops: :lefou: , le mieux que je suis arriv� a faire c'est
Code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
| #!/usr/bin/perl -w
use strict;
my @site = ("http://clubic.com/robots.txt");
@site = robots(@site)
sub robots
{
use WWW::RobotRules;
my $rules = WWW::RobotRules->new('Mozilla/5.0 (compatible)');
use LWP::Simple qw(get);
{
foreach $resultat( @_ ) {
my $robots_txt = get $resultat;
$rules->parse($resultat, $robots_txt) if defined $robots_txt;
}
} |
Et la catastrophe je sais pas comment r�cup�rer la sortie du programme tout ce que j'ai tent� me sort Hash::??????????
De plus j'ai encore un prb avec ce module il ne sort que les lien Allow hors certain fichiers robots.txt ne comporte que des Disallow
Citation:
User-agent: *
Disallow: /s/infoprix.php
Disallow: /s/infoprix_2.php
Disallow: /shopper/infoprix_2.php
De m�me auriez vous une solution pour retaper les url parce que
/s/infoprix.php c'est moins exploitable que htp://clubic.com/s/infoprix.php ou un exemple de sctipt complet avec robotrules parce que je s�che lamentablement.