(CLO) Инструмент преобразования речи в текст Whisper от OpenAI рекламируется как «надежный и точный, близкий к человеческому уровню», но у него есть один существенный недостаток: он склонен подделывать фрагменты текста или даже целые предложения!
По словам экспертов, некоторые из текстов, которые он производит и которые в индустрии называют галлюциногенами, могут включать расистские комментарии, насилие и даже воображаемые методы лечения.
Эксперты говорят, что подобные фальсификации серьезны, поскольку Whisper используется в самых разных отраслях по всему миру для перевода и расшифровки интервью, создания текстов и субтитров к видеороликам.
Еще большую тревогу вызывает тот факт, что медицинские центры используют инструменты на основе Whisper для записи консультаций пациентов с врачами, несмотря на предупреждение OpenAI о том, что этот инструмент не следует использовать в «зонах повышенного риска».
Предложения, начинающиеся с «#Ground truth» — это то, что было сказано на самом деле, предложения, начинающиеся с «#text» — это то, что Whisper расшифровал. Фото: АП
Исследователи и инженеры утверждают, что во время использования Whisper часто возникают галлюцинации. Например, исследователь из Мичиганского университета заявил, что обнаружил галлюцинации в восьми из десяти изученных им записей.
Инженер по машинному обучению первоначально обнаружил искажение примерно в половине из более чем 100 часов расшифровок Whisper, которые он проанализировал. Третий разработчик сообщил, что обнаружил галлюцинации почти в каждой из 26 000 заметок, созданных с помощью Whisper.
Иллюзия сохраняется даже в хорошо записанных коротких аудиофрагментах. Недавнее исследование, проведенное компьютерными специалистами, выявило 187 искажений в более чем 13 000 изученных ими чистых аудиозаписях.
По словам исследователей, эта тенденция приведет к десяткам тысяч ошибок в миллионах записей.
По словам Алондры Нельсон, профессора Школы социальных наук Института перспективных исследований, такие ошибки могут иметь «действительно серьезные последствия», особенно в условиях больницы.
«Никто не хочет, чтобы ему поставили неправильный диагноз. Должен быть более высокий барьер», — сказал Нельсон.
Профессора Эллисон Кёнек из Корнелльского университета и Мона Слоан из Университета Вирджинии изучили тысячи коротких отрывков, которые они извлекли из TalkBank, исследовательского архива, размещенного в Университете Карнеги-Меллона. Они определили, что около 40% галлюцинаций были вредными или тревожными, поскольку говорящий мог быть неправильно понят или неверно истолкован.
В одной из записей диктор описал «двух других девушек и женщину», но Уиспер сфабриковал дополнительные расистские комментарии, добавив «двух других девушек и женщину, гм, черную».
В другой транскрипции Уиспер изобрел несуществующий препарат под названием «антибиотики с повышенной активностью».
В то время как большинство разработчиков предполагают, что инструменты транскрипции могут допускать опечатки и другие ошибки, инженеры и исследователи утверждают, что никогда не видели инструмента транскрипции на базе ИИ, который был бы столь галлюциногенным, как Whisper.
Инструмент интегрирован в несколько версий флагманского чат-бота OpenAI, ChatGPT, и представляет собой интегрированную службу на платформах облачных вычислений Oracle и Microsoft, обслуживающую тысячи компаний по всему миру. Он также используется для транскрибирования и перевода текста на многие языки.
Нгок Ань (по данным AP)
Источник: https://www.congluan.vn/cong-cu-chuyen-giong-noi-thanh-van-ban-ai-cung-co-the-xuyen-tac-post319008.html
Комментарий (0)