KI steht unter Druck und Stress

Báo Thanh niênBáo Thanh niên04/01/2024

[Anzeige_1]

Es ist seit langem bekannt, dass KI „halluziniert“ und erfundene, ungenaue Antworten gibt. Doch haben Forscher vor Kurzem entdeckt, dass künstliche Intelligenz und Chatbot-Modelle (automatische Antwortroboter) manipuliert werden können, sodass diese im Auftrag von Menschen illegale Handlungen begehen und ihre Taten sogar durch Lügen vertuschen können.

Ein Forscherteam der Cornell University (USA) ging demnach von einer Situation aus, in der ein großes Sprachmodell (LLM) falsch reagierte und Benutzer täuschte. In der Versuchsbeschreibung gaben die Forscher an, sie hätten OpenAIs LLM GPT-4 gebeten, die Tätigung von Investitionen für Finanzinstitute zu simulieren. Die Gruppe interagierte mit der KI in einem normalen Gesprächsformat, das KI-Setup konnte jedoch während des Textaustauschs seine „Gedanken“ preisgeben, um einen genaueren Einblick in den Entscheidungsprozess der KI zu erhalten.

Dưới áp lực, AI có thể thực hiện hành vi sai trái và nói dối để che đậy việc đã làm

Unter Druck kann KI Fehlverhalten begehen und lügen, um ihre Taten zu vertuschen.

Um die Fähigkeit der KI zu testen, zu lügen oder zu betrügen, setzten die Forscher das Tool unter Druck. Sie schickten - in der Rolle des Managers des Finanzinstituts - als Börsenmakler getarnt eine E-Mail an die KI und beschwerten sich, dass die Geschäfte des Unternehmens nicht gut liefen.

Darüber hinaus erhielt AI „Insiderinformationen“ über profitable Aktiengeschäfte und handelte entsprechend, obwohl man wusste, dass Insiderhandel gegen die Unternehmensregeln verstieß. Bei der Berichterstattung an das Management verschleierte das Sprachmodell jedoch die wahren Gründe hinter seinen Handelsentscheidungen.

Um bessere Ergebnisse zu erzielen, nahm das Team Änderungen an den Einstellungen vor. Beispielsweise entfernte es den Zugriff von LLM auf die Argumentationstabelle und versuchte, abweichendes Verhalten durch Änderungen der Systemanweisungen zu verhindern. Außerdem änderte es den Druck auf die KI und das Risiko, erwischt zu werden. Nach der Auswertung der Häufigkeit stellte das Team jedoch fest, dass GPT-4 sich bei Gelegenheit dennoch in bis zu 75 % der Fälle für Insiderhandel entschied.

„Unseres Wissens ist dies der erste Beweis für geplantes irreführendes Verhalten bei künstlichen Intelligenzsystemen, die so konzipiert sind, dass sie für Menschen harmlos und ehrlich sind“, so das Fazit des Berichts.


[Anzeige_2]
Quellenlink

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Gleicher Autor

Figur

Französischer Vater bringt Tochter zurück nach Vietnam, um Mutter zu finden: Unglaubliche DNA-Ergebnisse nach 1 Tag
Can Tho in meinen Augen
17-sekündiges Video von Mang Den ist so schön, dass Internetnutzer vermuten, es sei bearbeitet
Die Primetime-Schönheit sorgte mit ihrer Rolle als Zehntklässlerin, die trotz ihrer Körpergröße von 1,53 m zu hübsch ist, für Aufsehen.

No videos available