Vor Kurzem hat Baidu Baike – ein chinesischsprachiger Wikipedia-ähnlicher Dienst – seine robots.txt-Datei aktualisiert – eine Datei, die Suchmaschinen anweist, auf welche Webadressen sie zugreifen können – und Googlebot und Bingbot vollständig daran gehindert, Inhalte der Plattform zu indizieren.
Foto: Shutterstock
Dieser Schritt zeigt Baidus Bemühungen, seine Online-Ressourcen angesichts der wachsenden Nachfrage nach Big Data zur Entwicklung von Modellen und Anwendungen für künstliche Intelligenz (KI) zu schützen.
Nach der Aktualisierung der robots.txt-Datei von Baidu Baike ergab eine Untersuchung des SCMP, dass viele Elemente der Plattform immer noch in den Suchergebnissen von Google und Bing auftauchten, wahrscheinlich aus zuvor archivierten alten Inhalten.
Mehr als zwei Jahre nach der Einführung von ChatGPT durch OpenAI schließen viele der weltweit größten KI-Entwickler Verträge mit Inhaltsherausgebern ab, um auf hochwertige Inhalte für ihre GenAI-Projekte zugreifen zu können.
OpenAI unterzeichnete im Juni einen Vertrag mit dem Time Magazine, um auf das gesamte Archiv des Magazins mit einer über 100-jährigen Geschichte zugreifen zu können.
Cao Phong (laut SCMP)
[Anzeige_2]
Quelle: https://www.congluan.vn/baidu-chan-google-va-bing-thu-thap-noi-dung-truc-tuyen-post309081.html
Kommentar (0)