チャットGPTについて(その1)

チャットGPTとは / 負の側面も知っておこう

チャットGPT (ChatGPT)とは
自分が入力した質問に対して、
AI(人工知能)が
まるで生身の人間と会話しているように、
自然な回答を返してくれる
チャットサービスです。

2022年11月に公開されてから、
回答精度の、
高さと自然さが話題となり、
利用者が激増しています。

 

このチャットGPTは
人工知能の研究開発機関
「OpenAI」により開発されました。

ここには
イーロン・マスク氏をはじめとする
実業家たちが
想像を超える金額(1兆円規模)を
出資しています。

もともと、
チャットGPTは
「小説やゲーム上の会話を
自動で生成できるようにしよう」
と、開発された、
「GPT」という言語モデルが
ベースとなっています。

GPTは
与えられた文字情報の指示に対して
自然言語を生成するAIです。

このAIは
インターネット上にある
膨大な情報を学習し、
難解な語彙や複雑な表現をも
理解できるのが特徴です。

そして
言語モデルのGPTが
チャットGPTに進化した今、
より自然な会話に近づくための機能
(ジェネレーティブAI(=生成AI)が搭載されました。

(※生成AIの解説は下の方にあります)

 

その結果、私たちは
AIとの会話が可能になったのです。

今、私たちは
チャットGPTから
多くのことを学べます。

そのメリットを
より上手に享受するには、
チャットGPTに
1つの問題につき1回だけ、
「質問して応えてもらう」
のではなく、

彼と対話を繰り返し、続け、
問題点を深堀していくことが大切です。

 

チャットGPTから得られること

チャットGPTは
過去の会話内容を記憶することができます。

また、会話中、
(AIの)内容に誤りがあった場合には
私たちが
「その情報は間違っていますよ」と
(AIに)指摘し、訂正することもできます。

あるいは、AIの意見に、
「私はこう思うんだけど、どうかしら?」と、
さらに問いかける、あるいは反論する、
ということもできます。

こうして、
AIとのやり取りを続けていくと、
会話がより重層的になり、深まっていきます。

結果として、質問者は
自分なりの考えを
まとめていくための手助けをしてもらったり、

AIとの対話から
多面的なアドバイスが得られたり、
することとなります。

チャットGPTは
現在も改良が加えられており、
2023年3月には
ChatGPT-4がリリースされました。

大変便利なチャットGPT、
ではありますが、
負の側面があることも
知っておくことが大切です。

 

チャットGPTの負の側面を
知っておこう

2016年の「アメリカ大統領選を例として」

チャットGPTと会話をしていると、

一体AI(人工知能)の進化は
どこまで行くのか、

このすさまじいまでの速さ、優秀さに、

ときに、背筋が寒くなります。

 

そもそも
「AIって怖いな・・・」と
初めて感じたのは
2016年のアメリカ大統領選です。

あの世界中を震撼とさせた
民主党ヒラリー氏、共和党トランプ氏の
大統領選です。

この選挙結果には
世界中が驚き、
両陣営の選挙戦略に対して、
様々な分析がなされました。

その結果、
トランプ陣営では

「マイクロターゲティング」
という、AIを用いた手法が
選挙戦に使われていた、
ということが
明らかになりました。

 

この手法の恐ろしいところは
一般の人々が
知らぬ間に
巻き込まれてしまっている、
という点です。

マイクロターゲティングとは

マイクロターゲティングとは
対象とする有権者の情報を
AIがあらゆる角度から
詳細に分析し、
彼の性格はもとより、
信条さえ
正確に予測していきます。

すると、
有権者の嗜好や行動パターンも
把握できてきます。

 

その結果、
嗜好の似ている有権者ごとに
より効果的な選挙戦略をとることができる、

という手法です。

 

では、有権者の情報は
どこから手に入れているのでしょうか?

それは、言うまでもなく、
その人の
SNSの閲覧・検索履歴からです。

 

この選挙戦やマーケティングに使われる
マイクロターゲティングの
ベースとなっているのが
「プロファイリング」です。

 

プロファイリングとは

プロファイリングという言葉は
この頃よく聞きますよね。

刑事ドラマなどでは
犯人を特定するために、
プロファイリングをする
警察官が登場したりします。

 

ここでいうプロファイリングとは
SNSの閲覧・検索履歴などから
AIが利用者の属性や心理的傾向を
詳細に分析する手法です。

この手法は
今では多くの企業が
すでに取り入れています。

企業は
この技術を使うことにより、
SNSの利用者が
欲しがっている商品を特定し、
彼らにピッタリの情報を
ピンポイントで送ることができるのです。

 

私たちの嗜好は
このようにSNSを利用することで、
その閲覧履歴から、
企業側のAIに分析されています。

 

その結果、
自分の好みに合った情報が
送られてきます。

 

この手法を悪用しようと思えば、
情報発信者は
(閲覧者の心理を詳細に分析しているため)
彼の心理的脆弱性に付け込むことができます。
そして、彼に悟られることなく、
その意思決定に、

大きな影響力を与えることが
できるのです。

 

2016年の大統領選が
まさに、
この「マイクロターゲティング」を
悪用し、
有権者の政治的意思決定をゆがめた、
と、指摘されているのです。

こうしたことは
アメリカだけの問題ではありません。

私たち一人一人が
もっと真剣に考えていく時だと思います。

 

チャットGPT、SNS、とどう向き合うのか?

SNSからの情報収集は
たやすく、便利で、
利用しないという選択肢は
もはやあり得ません。

 

しかし、
自分のSNSに上がってくる情報は
AIによって分析された、
企業側のフィルターがかかっていることを
常に意識しておくことが必要です。

 

例えば、
私は大の犬好きで、しょっちゅう、
柴ワンコの動画を見ています。

 

また、
犬関連の情報が上がってくると、
ついついクリックして、
見てしまいます。

 

すると、
私のSNS上は
「ワンコまみれ」となっています。

 

「あー、世の中は
犬好きな人であふれているのね!」
と、思うようになる仕掛けです。

 

チャットGPTも
こうした側面があることを
知っておくことが大切です。

 

ジェネレーティブAI(生成AI)とは

チャットGPTに搭載されているようなAIを
ジェネレーティブAIと言います。

このAIは
今までのAIと違い、
0からコンテンツを生成する
学習能力を持っています。

つまり、
学習した膨大なデータから
パターンやルールを抽出し、
それをもとに、
新たなアウトプットを
生み出すことができるのです。

そこで、
与えられた問いに対して、
まるで人間が応えているかのような
自然な回答をすることができます。

 

生成AIはフラットか?

ここで一つ疑問が生じます。

生成AIは感情のない機械です。
そうであるならば、
その回答には、
何の偏見も入っていないのでしょうか?

しかしながら、

これは大きな思い違いであることに、
ようやく気が付きました。(遅いぞ仁子!)

 

AIの生成力は
フラットではなく、
すでに開発した企業側の「修正」が
入っています。

 

例えば、
質問に回答するときの、
決して生成してはいけない
特定のNGワードです。

 

それを選定するのは企業側です。

 

そこで、
そのワードの選定には
その企業の価値観が反映されるように
当然「修正」が行われているはずです。

 

私がこのことを意識し始めたのは
中国政府の発言からです。

 

今、様々な国が
生成AIに対して、
規制すべきか否か、
あるいは
どう規制すべきなのか、
について研究を重ねています。

 

そして
自国の生成AIの開発を
急ピッチで進めています。

 

こういった中で、中国は
生成AIに
中国政府の価値観を反映させるべきである、
と述べていました。

 

ということは
当然、どの国でも、どの企業でも、
自分にとって有利となりやすい
「修正」を
事前に行っている、
と思っておいた方がいいでしょう。

現段階では
それぞれのAIの学習データの詳細は
公開されていません。

そこで、
「内々に組み込まれた価値観」を
はっきりと突き止めることは
不可能です。

 

私たちの質問に
やさしく、忍耐強く、
応えてくれるAIの基本情報には
すでに、なんらかの「修正」が
施されていること、

そして
(多くは)身元不明な文章を
切り取ったものであることを
意識しておくことが大切です。

 

チャトGPTとの付き合い方としては、
彼の素晴らしい回答を
ただ単に
うのみにするのではなく、
自分自身が
しっかりとした意志をもって、
彼を活用していくことが
要諦なのだと思います。

 

その他のChatGPTについての記事を
ご覧になりたいときは、
以下をクリックしてください。

→ChatGPTについて(その2)

→生成AI・チャットGPTについて(その3)

→生成AI負の側面(その4)

→生成AIの得意分野と苦手なこと(その5)

→日本の生成AIの進化が止まらない??(その6)

→生成AIの危険性に対抗するために(その7)

 

 

ではではニゴでした。

 

 

 

 

コメントを残す

CAPTCHA


サブコンテンツ

このページの先頭へ