生成AIの負の側面(その4)

AIの今のブームは
加熱しすぎているとはいえ、

今後、
AIのない世界は考えられなくなるでしょう。

また、
多くの学習者が
ChatGPTなどを
すでに使っている、
という
既成事実がある以上、

私たち教師の側が
「AIなんて知りません」
といった態度では
すまされません。

では
(日本語)教師は
AIとどう向き合ったらよいのかを
考察していきます。

まずは
・AIの長所と短所、
有効性と危険性を理解し、
・授業では、特に負の側面を
きちんと
学習者に伝えていきましょう。

前回は
AIの「すごさ」や「有効性」について
具体例を挙げながら見ていきました。

前回をご覧になりたい方は
以下をクリックしてください。
→生成AI・ChatGPTについて(その3)

 

今回は
AIの負の側面についてです。

AIの本質とは

まず、頭に入れておきたいのは
AIは
「正しい」答えを自動的に生成する機械ではない
ということです。

AIは
大量のデータを統計処理し、
「正しさ」よりも
「自然な会話」を選択するように
プログラムされています。

そもそも、AIは
言葉の意味を理解しているわけではありません。

つまり、AIは
論理的思考から答えを導くのではなく、
データのパターンから答えを予測しているのです

単に入力した言葉の、
次に続くものを確率計算し、
もっともらしい言葉を選択。

そして
平易な文章で応えるよう
プログラムされているのです。

現在のAIの最重要事項は
「正しさ」ではなく
「自然さ」であることを
しっかり理解しておきましょう。

「AIは間違えない」
といった認識を持つことは、
とても危険です。

こうした、いわゆる幻想のようなものを
事実認定してしまうことにより、
間違った情報が世界中に拡散していきます

AIが全く意味を理解していないという事例

アメリカのニューヨーク大学名誉教授
ゲイリー・マーカス氏の著書
『Rebooting  AI』に
興味深い例が載っていました。

<引用>
例えばフランス語で「avocat」は
「アボカド」と「弁護士」の両方の意味があります。

初期のグーグル翻訳では
「昼食にアボカドを食べる」と訳すべきところを、
「昼食に弁護士を食べる」と翻訳されていました。

という話が載っています。

ゲイリー・マーカス氏は
生成AIの最大の欠点は
システムが「幻覚」を起こし、
事実を勝手に作り上げることだ
と、指摘しています。

こうした例は
AIのバグ(不具合)ではなく、
特徴であり、
現在の仕組みでは
修正できないと述べています。

さらに、
驚くことに、
「もっとデータを加えれば、
そうした不具合はなくせる」
というのは
現行のシステムを使う限り、
不可能だと述べています。

私たちは学習者に
こうした事実をきちんと伝えていきましょう。

学習者に伝えるべきこと

上記の専門家の話からも、

学習者がAIを盲目的に信頼し、
過度に依存するようになる、
という
事態だけは避けなければなりません。

常に
「使う側」が、
AIをコントロールするんだ、
という意識を持っていることが大切です。

便利で、有用な道具だけに、
安易な使用はとても危険です。

フェイク情報の危険性

上記で述べたように、
AIは「正確さ」よりも、
「自然さ」を追求するシステムを使っています。

そこで、
あたかも本物に見える「偽りの証拠」を
いともたやすく作り上げることができます。

これを反対から見ると・・・

ここに
正真正銘の「本物」があったとします。
ですが、
悪意を持った人がいれば、
「それが本物であるという証拠はフェイクである」
と、やはり、
いともたやすく主張されてしまうでしょう。

このまま進んでいくと、
本物と偽物を選別することが、
とても難しくなります。

アメリカ、ハーバード大学
バークマンセンターの
アビーブ・オバディア氏は
こう警鐘を鳴らしています。

「インターネット上の
偽(にせ)情報を作り出す技術が高度化し、
情報自体を信じられなくなる世界が
近づいている」と。

これが、いわゆる
「インフォカリプス」
=情報の終焉)と言われているものです。

こうした事態に陥ると、
真偽を判断するためのコストが増大し、
今の社会制度を毀損させるとも、
訴えています。

ファクトチェック

しかしながら、
生成AIを使う限り、
ファクトチェックは必須となります。

・でっち上げの回答、
・有害な表現のチェック、
そして
・学習データの偏りや
・セキュリティー
などについての
ファクトチェックが欠かせません。

AIを安全に使い続けるために、
こうした環境整備も
進めていく必要があります。

特に日本は
欧米に比べて、
ファクトチェックをする機関が
非常に少ないと言われています。

安全なAI環境の整備が
今後の日本の課題だと言えます。

偽情報の恐怖:日本の実例

一つ恐ろしい例を取り上げます。

リトアニアでの
NATO首脳会議を目前に控えた7月9日、
日本の元首相が
ツイッター(現X)に
以下のような投稿をしました。

「ウクライナのゼレンスキー大統領が
北大西洋条約機構(NATO)に対し、
核兵器を使って、
ロシアを攻撃するように求めた」と。

この投稿のもととなった情報は、
全くのフェイク動画でした。

つまり、
悪意を持った人が
ゼレンスキー氏の話の一部分を切り取り、
世論を誤誘導するために
意図的につぎはぎした、
プロパガンダ(政治的意図を持った宣伝)の
ニセ情報だったのです。

AP通信は
ファクトチェック記事で
「これは間違っている」と
直ぐに報じました。

ところが、
このニセ情報は
ネット上で何度も息を吹き返し、
日本の元首相が
それを信じてしまった、ということです。

これは実際に先月
日本で起こった事実です。
(ご覧になった方も多いと思います)

これを見たとき、
あまりの恐ろしさに、
背筋が凍りました・・・

頭では
「フェイク情報を作るのは容易だ」
そして
「見分けるのは難しい」
と、わかっているつもりでしたが、
この日本で
こうしたことが
目の前で起こると、
心底恐ろしい時代に入ったと
感ぜずにはいられません・・・

偽(ニセ)情報は自走する

陰謀論や偽情報は
恐ろしいことに、
自発的に動き始めます。

その<カラクリ>はこうです。

悪意を持って作られた偽情報
正しい情報に比べ、
非常なインパクトがあります

「えー!! そうなの!?」と、
人の心を揺さぶり、
一部の人は
深く考えずに、それを拡散してしまいます。

こうして嘘の情報が増えていくと、
この情報は
これだけ多くの人が言っているのだから、
「本当なのではないか?・・・」と
感じる人が増えていきます。

そして
偽情報を信じる人が
増えれば増えるほど、
そのフェイク情報を発信するサイトへの
広告収入や寄付が増えていきます。

すると、
その悪意を持った機関・人物は
その資金で人海戦術を使い、
その偽情報をさらに拡散させていきます。

残念なことに
今は
こうした循環システムが
すでに出来上がってしまっています。

こうした知識は
学習者にも
今の時代、
きちんと伝えておく必要があるでしょう。

彼らを守るために
あるいは、
彼らを加害者にさせないために、です。

フェイク情報から学習者を守るために

偽情報がたやすく、
しかも
あっという間に拡散していくシステムを
防ぐ手立てはあるのか?

と聞かれたら、
本当に残念でたまらないのですが、
今の段階では、「ありません

偽情報から
一般の、何の罪もない人々を
守る技術は、まだまだ整っていないのです。

ファクトチェックは対処療法に過ぎず、
いったん広まってしまったものは
消し去ることはできません。

そこで、
私たち(日本語)教師は
学習者の皆さんに、

・情報はうのみにせず、一歩引いて考えること。
・安易に拡散はしない。

また、悲しいことですが、
「火のないところに、煙をたてる」人がいる
という事実を伝えておきましょう。

次回も
AIの闇、
それから、
AIの得意なことと苦手なこと
などについて
お伝えできればと、考えています。

これからますます、
AIとかかわりが深くなっていくことが予想されます。
こうした記事が
お役に立てれば幸いです。

ChatGPTに関する記事についてご覧になりたいときは
以下をクリックしてください。

→チャットGPTについて(その1)

→ChatGPTについて(その2)

→生成AI・チャットGPTについて(その3)

→生成AIの得意分野と苦手なこと(その5)

→日本の生成AIの進化が止まらない??(その6)

→生成AIの危険性に対抗するために(その7)

ではではニゴでした。

コメントを残す

CAPTCHA


サブコンテンツ

このページの先頭へ