この問題をより深く理解するために、ジャーナリスト&パブリックオピニオン紙の記者は、コミュニケーションとソーシャルネットワークの分野の専門家であり、VTVcab番組制作センターの副所長であるジャーナリストのグエン・カオ・クオン氏と会話を交わした。
AI 製品は使用時にラベルを付ける必要がある。
+ 先生、最近の AI 技術の発展について、特に最近ではテキストからビデオを作成できる Sora (OpenAI の ChatGPT の兄弟) と呼ばれる別のアプリケーションが登場したことについて、どう思われますか?
- メディア分野に応用されたAI技術は現在、大きく発展しています。これまでは、主に静止画やシンプルな画像の作成に AI を利用していました。今、AIはビデオ形式の制作を開始します。 OpenAI の Sora アプリケーションは、テキストを最長 1 分未満の短い動画に変換する機能を備えてリリースされました。 Sora は、鮮明な画像、スムーズな動き、リアルな感触を与える詳細な背景を備えたビデオを作成します。これにより、テクノロジー企業、メディア企業、さらには報道機関が、クリップ形式のアニメーション画像を使用してメディア製品を説明する絶好の機会が生まれます。
ジャーナリストのグエン・カオ・クオン氏 - VTVcab 番組制作センター副所長がメディア研修会に参加。
しかし、AI 製品の使用はすべての関係者によって依然として慎重に行われており、多くの国では明確な法的根拠を確保するために、ジャーナリズムの分野での AI の使用に関する規制の構築を検討しています。これはメディアやジャーナリズムに携わる人々にとっては非常に優れた便利なツールですが、特にジャーナリズムの分野では、それをどのように適用するかを真剣に検討する必要があります。ジャーナリズムの分野自体には客観的な真実を尊重する要素があります。一方、私たちが使用する人工知能製品は、あくまで機械で作られた合成製品なので、製品は単なる説明に過ぎません。
+ チャンスには常にリスクが伴います。 AIアプリケーションが高度になるほど、リスクも大きくなります。この発言についてどう思いますか?
- この技術が発展するにつれて、AI が本物の人間のように見える偽のオブジェクトを多数作成できるようになるため、リスクが生じます。実際のオンライン活動を行っている人々の画像。これにより、近年知られている情報セキュリティの問題が発生します。つまり、ディープフェイクによって画像や音声を偽造し、オンライン詐欺を働くという状況です。これは実際にはかなり一般的です。ディープフェイクと AI のマイナス面により、私たちは懸念を抱き、徐々に人々は AI によって作成された画像を信じなくなるでしょう。
現在、報道機関や国家管理機関には AI 分野に関する規制はありません。したがって、このテクノロジーを多かれ少なかれ活用するニュースルームは、使用時に AI 製品にラベルを付けるべきです。これは、これらが人間によって作成されたものではなく、人工知能の産物であることを一般の人々に警告するためでもあります。同時に、一般の人々の誤解を避けるために、これは実際のものではなく、説明のための画像であることを強調しています。
ジャーナリストのグエン・カオ・クオン氏が学生たちにメディア製品制作の実践を指導しています。
ジャーナリズムにおいて AI を使用する際には、細心の注意と機転が求められます。
+ 近い将来、報道機関は AI がもたらす利点をどのように活用できるでしょうか?
- 報道機関は、AI によって生成された説明写真を使用します。これは、グラフィック、広告、紹介写真、説明的な性質のものであるため、絶対的な正確さに対する要件がそれほど高くないため、使用できます。しかし、調査記事やルポルタージュ記事、あるいは単なるニュース記事の場合、AI 画像の使用は絶対に許可されません。なぜなら、一般の人々が実際の画像と AI によって作成された画像を混同してしまうからです。
したがって、ジャーナリズムの分野では、AI を使用する際には、細心の注意と熟練が必要になります。企業の商品宣伝、販売、顧客案内などを目的としたメディア制作を専門に行っている部署、メディア会社の製品であれば、AIを活用することは十分に可能です。これは、魅力的で分かりやすいクリエイティブな画像を素早く作成する手段としてのみ使用されることを目的としています。メディア作品がどのようなタスクを果たすかに応じて、ラベルが付けられる場合と付けられない場合があります。しかし、私の意見では、これはラベルを貼るべき新しい現象です。
例えば、数十年、数百年前に起こった出来事を絵に描くツールであれば、AIを活用してサポートすることができます。しかし、そのツールが何を引き出すかは、ジャーナリストの知識に大きく依存します。 AI に提供するには、その年の出来事だけでなく、AI に送信されるテキストとコマンドも理解する必要があります。あるいは、たとえばジャーナリストが AI を使ってトラン王朝の人々が出演する戦争シーンの写真を再現したとしても、ジャーナリストがトラン王朝の兵士について何も知らなかったらどうなるでしょうか?衣装や武器はどうですか?他の時代と混同されやすくなります。
OpenAI の Sora は、複雑なシーン、カメラの動き、感情豊かな複数のキャラクターを含む、最長 1 分間のビデオを生成します。 Soraアプリで作成したクリップから切り取った写真。
+ ジャーナリズム作品が AI によって作成された場合、または大部分が AI によって作成された場合、それが高品質のジャーナリズムとして評価されるか、ジャーナリズムの賞に応募される場合、法的にどのように判断しますか?
- 現在、ベトナム情報通信省やベトナムジャーナリスト協会によるジャーナリズム活動におけるAIの使用に関する規制には、具体的な指示や規制はありません。ただし、報道機関が AI をいずれかの部分またはセクションで使用する場合は、明確にラベルを付けるべきです。作品がコンテストに応募されるかどうかに関わらず、一般の人々に発信されるものである限り、ジャーナリストは、特に明確に区別できる広範かつ包括的な知識を持ち、細心の注意を払う必要があると思います。 AI が製品を作成するときに間違いが少なくなるように、正確な入力情報を提供します。 AIから製品が届いたら、再度確認する必要があります。この時点で、ジャーナリストは編集者の心構えを持ち、それが基準を満たしているかどうかを確認する必要があります。 AIの黎明期には、入力データがまだ少なく不足しているため、エラーが発生する可能性が非常に高いため、これにもっと注意を払う必要があります。
OpenAIは、書かれたコマンドからリアルなビデオを生成できるAIアプリケーション、Soraを発表した。
+ あなたの意見では、報道機関は、記者やジャーナリストが AI、特に新しく導入された機能を活用できるように、トレーニングと開発を強化すべきでしょうか?
- もちろん。 AI動画コンテンツ、縦型動画、音声やテキストコンテンツの制作、写真など…私たちは常に読者や視聴者を惹きつけたいジャーナリストなので、新しい知識をアップデートする必要があります。最も重要なのは、ツールをどれだけうまく使用できるか、そして編集、校正、テストのスキルがどれだけ優れているかです。ジャーナリストの専門分野に対する理解は十分ですか?つまり、すべての記者、ジャーナリスト、編集者は次の点に注意する必要があります。AI ツールが利用しやすくなるほど、エラーが発生する可能性が高くなります。
ジャーナリズムやテレビの作品では、コンテンツと画像が当時の状況と比較して出来事についての論理性、信憑性、正確性を生み出している限り、好きなだけ使用できます。それが重要です。その AI から発信されるジャーナリズム作品が適切に管理され、信頼性があり、適切なものであれば、問題はないと思います。歴史的な写真や絵画、ビデオなどについては、ラベルをつけて活用できますが、復元された画像がAIによってどの時代、どの時間に、どのような内容で作成されたのか、文脈がわかるようにすることができます。
+ 法的および安全上の問題がまだあるため、報道機関は、ソーシャル ネットワーキング プラットフォームに投稿するためだけに使用される報道資料を作成するために AI 製品を使用するべきでしょうか?
- ソーシャル ネットワーキング プラットフォームにアップロードするためだけに AI 製品を作成するのに労力がかかりすぎる場合は、再考する必要があると思います。そんなに手間がかかるなら、それらの商品は報道機関自身のウェブサイトに掲載されるべきです。 Facebook、TikTok、YouTubeなどのプラットフォームは依然としてサードパーティのプラットフォームであり、私たちはそのようなチャンネルから収益を得ることもできますが、長期的な戦略としては、やはり私たちが所有するチャンネルを開発していく必要があるのは明らかです。したがって、最も価値があり、苦労して獲得したコンテンツは、所有者の公式チャンネルに掲載される必要があります。
+ ありがとうございました!
ル・タム(演奏)
[広告2]
ソース
コメント (0)