Scritto da: michipu 22/06/2006 15.00
Dici? Si tratta semplicemente di un robot che scorre tutte le pagine di un determinato sito salvandone il contenuto in un database compatibile...
Non dico sia semplice, ma a parer mio è fattibile... Anche se lungo e complesso
prendi per esempio che so robot di google che gira tutto il web e salva le informazioni nei database di google. Ovviamente non ci serve niente del genere, ma solo un robot che iinterroghi tutte le pagine di un sito e ne salvi il contenuto in... che so php compatibile
quello che tu stai descrivendo sarebbe ben più compòlesso del crawler di google
perchè quello di google memorizza tutta la pagina, noi dovremmo estrapolare ogni post, solo il contenuto dei post, mmorizzandone l'utente che l'ha creato, la data, eccetera
Fondatore e Presidente di MJFS. Oramai non più molto attivo nel forum... ma rimango sempre un fan che tanto ha amato e ama tutt'ora Michael Jackson e la community MJFS