In einer Erklärung betonten Branchenführer und Experten, dass die Bewältigung der Risiken durch KI „neben anderen Risiken wie Pandemien und Atomkrieg“ eine „globale Priorität“ sein müsse, so AFP. Die Erklärung wurde von Dutzenden Experten unterzeichnet, darunter Sam Altman, CEO von OpenAI, dem Unternehmen, das die ChatGPT-Plattform entwickelt hat.
ChatGPT erlangte Ende letzten Jahres Berühmtheit mit seiner Fähigkeit, aus kürzesten Stichworten Essays, Gedichte und Chats zu generieren. Der ChatGPT-Wahn hat Milliarden von Dollar an Investitionen in den KI-Bereich angezogen.
ChatGPT-Logo und das englische Wort „Artificial Intelligence“ (AI)
Branchenexperten schlagen jedoch Alarm, denn es gibt viele Gefahren, die von voreingenommenen KI-Algorithmen bis hin zum Risiko massiver Arbeitsplatzverluste reichen, da die KI-gestützte Automatisierung in den Alltag der Menschen eindringt.
Die jüngste Erklärung, die auf der Website des Center for AI Safety (einer gemeinnützigen Organisation mit Sitz in den USA) veröffentlicht wurde, liefert keine Einzelheiten über die potenzielle existenzielle Bedrohung durch KI.
Mittlerweile haben einige der Unterzeichner, darunter auch Geoffrey Hinton, der einige der grundlegenden Technologien für KI-Systeme entwickelte und als Vater der Branche gilt, in der Vergangenheit ähnliche Warnungen ausgesprochen.
Ihre größte Sorge gilt der Idee der sogenannten künstlichen allgemeinen Intelligenz (AGI). Damit ist der Punkt gemeint, an dem Maschinen in der Lage sind, viele der gleichen Funktionen wie Menschen auszuführen und eigene Programme zu entwickeln.
Das Beunruhigende dabei ist, dass der Mensch nicht länger in der Lage sein wird, künstliche Intelligenz zu kontrollieren. Experten warnen, dass diese Situation katastrophale Folgen für die Menschheit haben könnte.
Laut AFP unterzeichneten Dutzende Experten von Unternehmen wie Google und Microsoft die Erklärung, die zwei Monate nach der Forderung des Milliardärs Elon Musk und anderer nach einer Pause bei der Entwicklung von KI-Technologien erfolgte, bis deren Sicherheit nachgewiesen werden könne.
[Anzeige_2]
Quellenlink
Kommentar (0)