2022年11月にOpenAIがChatGPTを発表して以来、人工知能(AI)はテクノロジー業界における最大の議論のトピックとなっています。その後すぐに、Google、Meta、Microsoftなどの企業も独自のAIへの取り組みに多額の投資を行いました。
大手テクノロジー企業は AI に対する野望を隠そうとはしていないが、最近では AI が自社のビジネスに及ぼすリスクにひそかに取り組んでいる。グーグルの親会社アルファベットは2023年の年次報告書で、AI製品やサービスは倫理的、技術的、法的、規制上の課題をもたらし、ブランドや需要に悪影響を及ぼす可能性があると述べた。

ブルームバーグによると、Meta、Microsoft、Oracleも米国証券取引委員会(SEC)への提出書類の中で、多くの場合「リスク要因」のセクションでAIに関する懸念に言及している。たとえば、Microsoft は、生成 AI 機能は予期しないセキュリティの脅威に対して脆弱になる可能性があると指摘しています。
メタの2023年度年次報告書で、フェイスブックの親会社は「AIの開発と導入には重大なリスクが伴う」こと、そして「AIの使用によってサービスや製品が改善されたり、事業運営に利益がもたらされるという保証はない」ことを強調した。 Meta は、偽情報 (選挙など)、悪意のあるコンテンツ、知的財産権の侵害、データのプライバシーなど、ユーザーに損害を与え、訴訟につながる可能性のある AI シナリオをリストします。
一方、一般の人々は、AIによって一部の仕事が廃止されたり消滅したりすることや、個人データで訓練された大規模な言語モデルが誤った情報を広めることについても懸念を表明した。
6月4日、OpenAIの元従業員と現従業員のグループが「意向書」を送り、テクノロジー企業に対しAIのリスクを最小限に抑えるためにさらなる取り組みを行うよう求めた。彼らは、AI によって不平等、操作、誤情報が増大し、制御不能な自動化された AI システムが人類の生存を脅かすのではないかと懸念しています。
ソース
コメント (0)