По данным источников Tech.co , пока продолжались споры об увольнении генерального директора Сэма Альтмана и его последующем возвращении в OpenAI, одним из слухов было письмо, отправленное исследователями компании совету директоров, в котором выражалась обеспокоенность по поводу разрабатываемой модели сверхразума на основе ИИ, которая может представлять потенциальную угрозу человечеству.
(Иллюстрация)
Проект Q*
Модель, известная внутри компании как Project Q* (произносится как «Кью-стар»), как утверждается, представляет собой крупный прорыв в стремлении OpenAI к созданию общего искусственного интеллекта (AGI) — высокоавтономной ветви сверхинтеллекта, способной к кумулятивному обучению и превосходящей людей в большинстве задач.
По словам людей, знакомых с этим вопросом, Q* может стать серьезным шагом вперед в развитии искусственного интеллекта, радикально улучшив возможности рассуждения ИИ и приблизив OpenAI к крупному прорыву в разработке AGI.
В отличие от существующих моделей ИИ, которые фокусируются на способности генерировать ответы на основе ранее изученной информации, ИИОН представляет собой автономную систему, которая может применять «разум» к решениям, что дает ей возможности решения проблем на человеческом уровне.
Хотя ИИ еще не полностью реализован, многие эксперты полагают, что эта технология также будет обладать способностью к кумулятивному обучению — еще одной чертой, которая дает людям возможность улучшать свои способности.
Некоторые источники утверждают, что проект Q* - OpenAI смог доказать вышеуказанные свойства при решении задач. Более того, благодаря огромной вычислительной мощности модели Q* смог превзойти учеников начальной школы, продемонстрировав навыки рассуждения и когнитивные способности, значительно превосходящие возможности современных технологий искусственного интеллекта.
Неясно, как долго Q* находится в разработке и каковы могут быть его сферы применения, но OpenAI проинформировала сотрудников и членов совета директоров о проекте еще до того, как разразился кадровый скандал.
Этические проблемы
Хотя генеральный директор OpenAI Сэм Альтман уверен, что технология AGI будет способствовать инновациям, некоторые исследователи поспешили указать на потенциальные опасности проекта.
В письме совету исследователи предупредили о потенциальной опасности этого мощного алгоритма для человечества. Конкретные этические проблемы ИИ, изложенные в письме, не были раскрыты, но предупреждений было достаточно, чтобы оправдать решение совета директоров об увольнении Альтмана.
Между тем первоначальной причиной увольнения Альтмана было то, что генеральный директор «плохо общался». Вскоре после этого он нашел новую должность в Microsoft. Этот шаг побудил 700 из 770 сотрудников OpenAI пригрозить сделать то же самое, если генеральный директор не будет восстановлен в должности.
Поскольку компания оказалась на грани краха, совет директоров OpenAI был вынужден восстановить Альтмана на руководящей должности, что также привело к серьезной перестройке руководящего состава компании и выявило глубокие разногласия в ее руководстве.
Теперь, когда Альтман вернулся в офис и проект Q*, скорее всего, снова получит зеленый свет, возникают новые вопросы.
Насколько реалистичен проект Q*?
Хотя бурные дни в OpenAI выдвинули концепцию AGI в центр внимания, Альтман не в первый раз упоминает эту технологию.
В сентябре предприниматель из Кремниевой долины оказался в затруднительном положении, сравнив ИИОН со «среднестатистическим человеком, которого можно нанять в качестве коллеги». Далее он подтвердил свои прошлогодние комментарии о том, что этот ИИ может «делать все то, что вы можете делать с удаленным коллегой», в том числе научиться быть хорошим врачом и программистом.
Хотя сравнение ИИ с интеллектом «среднего человека» не является чем-то новым, использование Альтманом этой фразы было сочтено «отвратительным» специалистом по этике ИИ и профессором Кембриджского университета Генри Шевлином, поскольку обеспокоенность по поводу влияния ИИ на безопасность труда растет.
Потенциальные прорывы в области ОИИ также вызывают тревогу у других исследователей: технология развивается быстрее, чем люди успевают полностью осознать ее влияние.
OpenAI полагает, что положительные результаты AGI оправдывают попытку пройти рискованное «минное поле». Однако, поскольку компания продолжает двигаться в этом направлении, многие опасаются, что Альтман ставит коммерческий успех выше интересов пользователей и общества.
Фыонг Ань (Источник: Tech.co, The Guardian)
Источник
Комментарий (0)