私たちは産業革命4.0の時代に生きており、人工知能(AI)は徐々に社会生活の多くの分野で欠かせないものになりつつあります。メディアは、一般大衆と出来事の間の情報の架け橋として、その傾向から外れることはできない。
AI技術に関するワークショップに参加したベトナムジャーナリスト協会ジャーナリズム研修センター所長のグエン・ティ・ハイ・ヴァン氏。 (出典:ベトナムジャーナリスト協会) |
AIがもたらすメリットを最大限に活用するためには、情報伝達の信頼性と倫理性を確保しながら、AIを効果的に活用するための知識を身につける必要があります。
AIの「熱」から
AI(人工知能)が今日最もホットなキーワードの 1 つであることは明らかです。 2024年9月、Googleで「AI」というキーワードを0.3秒間検索すると、159億件の結果が記録されました。 「AIツール」というキーワードでは、0.4秒で34億件以上の結果が記録されました。この膨大な数字は、AI と AI ベースのツールに対する世界的な報道と関心のレベルを物語っています。
昨今、メディア業界をはじめ、さまざまな分野で AI ツールがますます登場しています。広く知られている ChatGPT 以外にも、特殊なタスクを処理する、特殊な方向で開発された AI アプリケーションが数多くあります。ここで多くのツールをリストすることは難しくありません。たとえば、チャットボット タスク グループ用の Bing AI、Clause、Zapier Central などです。コンテンツ作成タスク用の Jasper、Copy.ai、Anyword。ビデオ制作および編集タスクには Descript、Wondershare、Runway を使用します。 DALL-E3、Midjourney、クリエイティブな画像タスク向けの安定した拡散。 Murf、オーディオ コンテンツ タスク用の AIVA などがあり、つい最近、大手の Amazon も「創造性を刺激し、より多くの価値をもたらす」ことを目的として、自社開発した AI ツールであるビデオ ジェネレーターとイメージ ジェネレーターを発表しました。
AI ツールは規模や専門性のレベルが大きく異なりますが、テクノロジーには本質的に 2 つの共通点があります。AI ツールは、AI ツールを「トレーニング」するためのアルゴリズムとデータに基づいて開発されます。
メディアにおけるAI利用の倫理的管理
AI ツールがもたらす利便性は否定できません。テクノロジーの更新が急速に進む中、メディア業界の単純なタスクから複雑なタスクまで、あらゆる分野に特化した AI ツールがますます増えていくでしょう。この圧倒的な発展に伴い、メディア業界における AI ツールの開発と使用における倫理的管理の問題について多くの疑問が生じています。その AI ツールのアルゴリズムとデータがコミュニティに有害な方法で操作されたらどうなるでしょうか? AIツールがトレーニングに使用する入力データの知的財産権は誰が所有しますか?誰がその被害レベルを評価するのでしょうか?
同じタスクに対して、AI ツールにアクセスできるグループとアクセスできないグループの間に不平等はありますか?特にメディアやソーシャル ネットワークなど、多くの人々に大規模に影響を与える可能性のある機密性の高い領域では、AI ツールによって制御不能な危害が生じる可能性があるという疑問も提起されています。
上記の懸念を認識し、多くの組織、協会、政府、さらには AI ツールを開発している企業や法人が、AI 技術における倫理的管理の問題に関連する推奨事項、説明情報、さらに高度な行動規範を発行しています。 2021年に193か国で採択されたユネスコ(国際連合教育科学文化機関)の「人工知能の倫理に関する宣言」の勧告では、「人工知能(AI)の急速な台頭により、医療診断の支援からソーシャルメディアを通じた人間のつながりの実現、タスクの自動化による労働効率の向上まで、世界中で多くの機会が生まれています」と述べています。
しかし、こうした急速な変化は、深刻な倫理的懸念も引き起こしています。AIに関連するこうしたリスクは、既存の不平等をさらに悪化させ、すでに不利な立場にあるグループにさらなる危害をもたらし始めています…」そしてそこから、「ユネスコに加盟国を支援するツールの開発を要請する。その中には、政府が国民全員のために倫理的かつ責任を持ってAIを導入する準備状況を包括的に把握するためのツールである準備状況評価方法論も含まれる。」
ユネスコは世界的な取り組みの一環として、世界AI倫理・ガバナンス観測所を立ち上げ、「各国が倫理的かつ責任を持ってAIを導入する準備状況に関する情報を提供する」としている。このイニシアチブでは、AI倫理およびガバナンスラボも主催しており、幅広いAI倫理問題にわたる貢献、影響力のある研究、ツールキット、および積極的な実践を結集しています...」
UNESCO のような世界的な組織に加えて、多くの専門団体も独自の行動規範の策定に取り組んでいます。たとえば、世界中から何千人もの会員を擁する IABC (国際ビジネスコミュニケーション協会) は、IABC 倫理規定の AI への関連性について IABC 会員を導くことを目的とした「コミュニケーション専門家による AI の倫理的使用に関するガイドライン」を立ち上げました。これらのガイドラインは、AI テクノロジーの進化に応じて、時間の経過とともに更新および補足される可能性があります。この行動規範には、コミュニケーションの専門家が遵守すべき具体的なポイントが多数含まれています。たとえば、
「メディア業界に敬意を払い、信頼を築くポジティブで透明性の高い体験を生み出すには、AI リソースの使用は人間主導でなければなりません。 AI ツールがもたらすキャリアの機会とリスクについて最新情報を把握しておくことが重要です。情報は正確に、客観的に、公平に伝えることが必要です。 AI ツールには、多くのバグ、不整合、その他の技術的な問題が発生する可能性があります。これには、AI によって生成されたコンテンツが正確で、透明性があり、盗作がないことを確実に検証するための人間の判断が必要です。
他人の個人情報や機密情報を保護し、許可なくその情報を使用しないこと。人間の関与と、サービス提供を目的とするコミュニティへの理解に基づいて AI 出力を評価します。できる限り偏見を排除し、他者の文化的価値観や信念に敏感になりましょう。
第三者の資料、情報、または参照が正確であり、必要な帰属と検証があり、使用が完全にライセンスまたは承認されていることを確認するために、必要な専門的な厳格さで出力を個人的に事実確認および検証する必要があります。専門的な成果物において AI の使用を隠したり偽装したりしないでください。 AI のオープン ソースの性質と、虚偽、誤解を招く、または欺瞞的な情報の入力など、それに関連するセキュリティ上の懸念を認識します...
AI ツールを所有、開発、取引する企業や法人は、AI ツールの詳細を誰よりもよく理解しています。AI ツールが動作する基礎となるアルゴリズムや、AI ツールのトレーニングに使用されるデータを熟知しています。そのため、これらの企業は AI 開発における倫理原則に関する情報も提供する必要があります。実際、この問題に関心を持っている企業もあります。
Google は、重大な危害のリスクがある分野では AI ツールを開発しないことを約束しており、メリットがリスクを大幅に上回り、適切な安全上の制約が組み込まれた場合にのみ開発を進めます。人間の傷害を引き起こす、または直接的に容易にすることを主な目的または展開とする武器またはその他の技術。監視のために情報を収集または使用する技術は、国際的に認められた規範に違反します。国際法および人権の広く受け入れられている原則に違反するテクノロジー。
セキュリティと安全性の面では、Google は次のように約束しています。「当社は、危害のリスクを生み出す予期しない結果を回避するために、強力なセキュリティと安全性の対策を継続的に開発し、実装していきます。」当社は、AI システムを適切な注意を払って設計し、AI 安全性研究のベストプラクティスに従って開発するよう努めます。当社は、AI テクノロジーの開発と使用にプライバシー原則を組み込みます。私たちは、通知と同意の機会を創出し、プライバシーを保護するアーキテクチャを奨励し、データの使用に関する適切な透明性と制御を提供します。」
Google と同様に、Microsoft も AI の原則とアプローチに関する声明を発表し、「当社は AI システムが責任を持って、人々の信頼を確保する方法で開発されることに尽力しています...」と強調しました。さらに、AmazonやOpenAIなど、AIツールの開発に多額の投資を行っている大手テクノロジー企業も、何らかの形で独自の取り組みを行っています。
歴史上の多くの例は、テクノロジーには肯定的な要素と否定的な要素が伴うという二面性があることを証明してきました。結局のところ、AI は非常に「ハイテク」な技術プラットフォームではあるものの、依然として人間が開発し収集したアルゴリズムとデータに基づいています。同時に、ほとんどの AI 製品は、それを所有する企業の事業計画の一部となっています。
したがって、技術面だけでなく、製品開発および管理チームからも潜在的なリスクが常に存在します。ここで問題となるのは、AI ツールがコミュニティの社会経済レベルにさえも、大衆に及ぼす潜在的に巨大な影響の規模です。 AI技術の使用時に倫理的管理にタイムリーに注目が集まっていることは、国連などの大規模な国際組織、政府、業界団体、そして何よりも技術開発部門の参加によって、歓迎すべき兆候となっています。
しかし、AIツールのリストが継続的に新しいバージョンをリリースし、それぞれが以前のバージョンよりも洗練され複雑になっているのと同様に、コード、原則、ガイドラインもタイムリーに更新および補足する必要があり、さらに、AIテクノロジー全般、特にメディア従事者における倫理的管理に準拠する能力が最高の効率を達成できるフレームワーク内で、製品開発ユニットとユーザーを予防、制限、管理するために積極的に取り組む必要があります。
[広告2]
ソース
コメント (0)