このモデルは推論し、複雑な数学的問題を解決し、科学研究の疑問に答えることができ、これは人間のような認知能力を持つ機械である汎用人工知能(AGI)の開発に向けた重要な前進であると考えられている。
OpenAIは、O1モデルの高度な機能を考慮して、これを一般公開する方法について特に「慎重」であったと述べた。写真: ゲッティイメージズ
フィナンシャル・タイムズによると、OpenAIは化学・生物・放射線・核兵器(CBRN)関連の問題に関してこれらの新モデルのリスクを「中程度」と評価しており、これは同社がこれまで評価した中で最も高い数値だ。これは、この技術によって専門家の生物兵器製造能力が「大幅に向上」したことを意味する。
専門家によると、詳細な推論が可能な AI ソフトウェアは、特に悪意のある人物の手に渡ると、悪用されるリスクが高まる可能性がある。
モントリオール大学の世界的AI科学者であるヨシュア・ベンジオ教授は、この中程度のリスクレベルによって、カリフォルニア州で議論されている法案SB1047のようなAI規制の制定の緊急性が増すと強調した。この法案は、AIメーカーに対し、そのモデルが生物兵器の開発に悪用されるリスクを軽減するための措置を講じることを義務付けるものだ。
The Vergeによると、Google、Meta、Anthropicなどのテクノロジー企業が高度なAIシステムの構築と改善に競い合う中、AIモデルのセキュリティと安全性が大きな懸念事項となっている。
これらのシステムは、人間がタスクを完了するのを助け、さまざまな分野で支援を提供する上で大きなメリットをもたらす可能性がありますが、安全性と社会的責任の課題ももたらします。
カオ・フォン(FT、ロイター、The Vergeによる)
[広告2]
出典: https://www.congluan.vn/openai-thau-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
コメント (0)