Récemment, Baidu Baike, un service en chinois de type Wikipédia, a mis à jour son fichier robots.txt, un fichier qui indique aux moteurs de recherche à quelles adresses Web ils peuvent accéder, et a complètement bloqué Googlebot et Bingbot pour les empêcher d'indexer le contenu de la plateforme.
Photo : Shutterstock
Cette décision témoigne des efforts déployés par Baidu pour protéger ses actifs en ligne dans un contexte de demande croissante de big data pour développer des modèles et des applications d'intelligence artificielle (IA).
Suite à la mise à jour du fichier robots.txt de Baidu Baike, une enquête du SCMP a révélé que de nombreux éléments de la plateforme apparaissaient toujours dans les résultats de recherche Google et Bing, probablement à partir d'anciens contenus archivés précédemment.
Plus de deux ans après le lancement de ChatGPT par OpenAI, de nombreux grands développeurs d'IA du monde signent des accords avec des éditeurs de contenu pour accéder à du contenu de qualité pour leurs projets GenAI.
OpenAI a signé un accord avec le magazine Time en juin pour accéder à l'intégralité des archives du magazine, qui représentent plus de 100 ans d'histoire.
Cao Phong (selon SCMP)
Source : https://www.congluan.vn/baidu-chan-google-va-bing-thu-thap-noi-dung-truc-tuyen-post309081.html
Comment (0)