Vietnam.vn - Nền tảng quảng bá Việt Nam

Предупреждение о «галлюцинациях» ChatGPT

Недавние исследования показали, что GPT o3 и o4-mini — самые мощные модели в портфолио OpenAI — фабрикуют еще больше ложной информации, чем их предшественники.

Zing NewsZing News20/04/2025

Две недавно выпущенные модели ChatGPT имеют более высокую частоту фабрикации информации, чем предыдущее поколение. Фото: Светлячки .

Всего через два дня после анонса GPT-4.1 компания OpenAI официально запустила не одну, а две новые модели, названные o3 и o4-mini. Обе модели демонстрируют превосходные возможности вывода со множеством существенных улучшений.

Однако, по данным TechCrunch , этот новый дуэт моделей по-прежнему страдает от «галлюцинаций» или самодельной информации. Они даже «галлюцинируют» больше, чем некоторые старые модели OpenAI.

По данным IBM, галлюцинации возникают, когда большая языковая модель (LLM) — обычно чат-бот или инструмент компьютерного зрения — получает шаблоны данных, которые не существуют или нераспознаваемы человеком, что приводит к бессмысленным или вводящим в заблуждение результатам.

Другими словами, пользователи часто просят ИИ генерировать точные результаты на основе данных обучения. Однако в некоторых случаях результаты ИИ не основаны на точных данных, создавая «иллюзорные» ответы.

В своем последнем отчете OpenAI обнаружила, что o3 «галлюцинировал», отвечая на 33% вопросов PersonQA — внутреннего теста компании для измерения точности знаний модели о людях.

Для сравнения, это вдвое превышает показатель «галлюцинаций» у предыдущих моделей рассуждений OpenAI, o1 и o3-mini, которые составляли 16% и 14,8% соответственно. Между тем, модель O4-mini показала еще худшие результаты в тесте PersonQA, испытывая «галлюцинации» в течение 48% времени теста.

Еще более тревожно то, что «отец ChatGPT» на самом деле не знает, почему это происходит. В частности, в техническом отчете по o3 и o4-mini компания OpenAI пишет, что «необходимы дальнейшие исследования, чтобы понять, почему «иллюзия» ухудшается» по мере масштабирования моделей рассуждений.

o3 и o4-mini показывают лучшие результаты в некоторых областях, включая задачи, связанные с программированием и математикой. Однако из-за необходимости «делать больше утверждений, чем обобщать» обе модели страдают от проблемы получения результатов, которые включают «более точные утверждения, но также и более неточные утверждения».

Источник: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


Комментарий (0)

No data
No data

Та же категория

Многие пляжи Фантхьета усеяны воздушными змеями, что впечатляет туристов.
Российский военный парад: «Абсолютно кинематографические» ракурсы, которые ошеломили зрителей
Посмотрите впечатляющее выступление российских истребителей на праздновании 80-летия Дня Победы
Кук Фыонг в сезон бабочек – когда старый лес превращается в волшебную страну

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт