Модель способна рассуждать, решать сложные математические задачи и отвечать на вопросы научных исследований, что считается важным шагом вперед в усилиях по разработке общего искусственного интеллекта (AGI) — машин с когнитивными способностями, подобными человеческим.
В компании OpenAI заявили, что они были особенно «осторожны» в отношении того, как они представили общественности модель o1, учитывая ее передовые возможности. Фото: Getty Images
По данным Financial Times, OpenAI оценила риск этих новых моделей как «средний» для проблем, связанных с химическим, биологическим, радиологическим и ядерным (ХБРЯ) оружием, что является самой высокой оценкой компании за всю ее историю. Это означает, что технология «значительно улучшила» возможности экспертов по созданию биологического оружия.
По мнению экспертов, программное обеспечение на основе искусственного интеллекта, способное к детальным рассуждениям, особенно в руках недобросовестных лиц, может увеличить риск злоупотреблений.
Профессор Йошуа Бенджио, ведущий мировой ученый в области искусственного интеллекта из Монреальского университета, подчеркнул, что этот средний уровень риска повышает срочность принятия нормативных актов в области искусственного интеллекта, таких как законопроект SB 1047, обсуждаемый в Калифорнии. Законопроект обяжет производителей ИИ принять меры по снижению риска нецелевого использования их моделей для разработки биологического оружия.
По данным The Verge, безопасность моделей ИИ стала серьезной проблемой, поскольку такие технологические компании, как Google, Meta и Anthropic, стремятся создавать и совершенствовать передовые системы ИИ.
Эти системы могут принести огромную пользу, помогая людям выполнять задачи и оказывая помощь в различных областях, но также создают проблемы с безопасностью и социальной ответственностью.
Као Фонг (по данным FT, Reuters, The Verge)
Источник: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
Комментарий (0)