生成AIの得意分野と苦手なこと(その5)

今回は
・今までのAIと生成AIとの違い
・AIは人間の仕事を奪うのか?
・AIの得意分野と苦手なこと
・AIの付く嘘(うそ)のシステム
・情報リテラシー:「だいふく」

などについて書いていきます。

生成AIとは

生成AI(人工知能)は
ユーザーが文字を使って指示を出すと、
それに応じて、
テキスト(文章)、画像、音声、動画などを
瞬時に作り出してくれます。

生成AIとは、こうしたコンテンツを生み出す
システムのことです。

既存のAIが活躍している分野とは

これまで(2022年までにリリースされた)
AIは
ほとんどが画像処理の分野で、
利用されています。

具体例としては
ネットショッピング、あるいは
ユニクロの会計処理などを
思い浮かべてみてください。

機械を通すと(AIが)
買い物かごの商品を自動的に認識し、
会計までしてくます。

医療方面では
AIが画像を分析し、
どんな病気が潜んでいるのかを
見つけてくれます。

また、
工事現場では
AIが周辺映像を分析し、
将来起こるであろう危険を予測し、
知らせます。

他には
AIが構造物の亀裂を検知する、
といった利用法もあります。

こうした作業は
人間がやるとなると、
長い経験と熟練の技が必要です。

ところが、
今ではAIが、そういったことを
かなり正確に行えるようになっています。

このようにAIは今現在、すでに
活動の場を広げています。

では、
今年(2023年)に入って登場した
生成AI(ChatGPTなど)は、どうして
こんなにも耳目を集めているのでしょうか?

2023年登場の生成AIが注目される理由

今までのAIとの違いとは

以前のAIは
上記のような用途で利用する際に、
個別に、一つ一つ
システムを構築する必要がありました。

そこには相応の資金力と専門知識とを
投入する必要があります。

そのため、個人では
なかなか利用することができなかったのです。

ところが、
今年
華々しく登場したChatGPTは
無料です。(のちに有料版も出ました)

そして、
無料の上に、使う際には
専門性を問われるこもとなく、
誰もが利用できるAIとして登場したのです。

この「誰もが使える」ということ、
つまり、
資金力や専門知識がなくとも使える
ということが
最新AIの最大のポイントで、
世界の一億人以上が、
すでに利用している
大きな理由でもあります。

今年登場したAIの利用法は
とても簡単で、
画像では
「ピカソ風に描いて」といえば
そのように描いてくれます。

文章では
「村上春樹風でお願い」と指示を出せば、
村上春樹ふうの雰囲気を漂わせた
小説さえも生成してくれます。

しかも瞬時にです。

生成AIは人間の仕事を奪うのか?

以前
ロボットが登場したとき、
彼らが肉体労働者の仕事を
奪ってしまうのではないか、
と、世界中の人々が不安を覚えました。

今年登場した生成AIは
肉体労働者ではなく、
逆に
知的労働者への影響が
非常に大きいと考えられています。

ロボットやAIでは
決して代替できないとされていた
仕事の代表、
つまり
創造力を必要とする仕事、

例えば
コピーライティング、
イラスト、文章(脚本等も含む)作成、
翻訳、
マーケティング、
コンサルティング、

こうしたクリエイティブな仕事を
生業としている人々が
最新AIの影響を受け、
その被害は甚大であると、
言われています。

仕事を奪われる階層が
知的労働者だったとは
全く思いもよらなかったことです。

多くのAI専門家は以下のように述べています。

・一流のクリエイターは
何の問題もないであろう。が、
・「ある程度できる」といったくくりの
中途半端な技量の持ち主は
淘汰されてしまう可能性が高い、

と、警鐘を鳴らしています。

・トップの人は安泰、
・ある程度の仕事ができる中間層は
仕事を奪われる可能性あり。
では、
経験の浅い、あまりスキルのない働き手は
どうなのでしょうか?

この階層の人々にとっては
生成AIが
とてつもない福音をもたらしてくれます。

経験の浅い人々がAIを利用すると、
今までと比べ、
問題解決力が上がり、
時間も大幅に短縮でき、
作業品質が向上する、
という研究結果がアメリカでは出ています。

スキルのない働き手ほど、
生成AIによる恩恵は大きいと
報告されています。

まだ発展途上なAI

AIが革命をもたらす、という人もいます。
もしそうだとしても、
まだ、
革命の入り口に立ったばかり、
というのが現状です。

未来予測も混とんとしています。

例えば、
「AIのおかげで、
デザインセンスがなくとも、
誰もがクリエーターになれる」
と考える人もいます。

「誰もが平均的なコンテンツを
生み出せるようになるので、
あらゆる職業への参入障壁が低くなる」
とワクワクしている人もいるでしょう。

反対に
「並の技量では
AIに太刀打ちできなくなるので、
クリエーターが食べていくのは
難しくなるだろう」
と悲観する人もいます。

今はまだ、
混とんとした中に
突然放り込まれてしまった状況です。

仕事が増えるのか、奪われるのか、
誰も予測はできません。

今は
冷静に、
正しい(であろうと思われる)知識を
深めていきましょう。

そして
AIを活用できるところは、活用しながら、
(もしかしたら)
大きく変わるかもしれない将来に
備えましょう。

AIの得意分野と苦手なこと

アメリカ、バージニア大学教授の
アントン・コリネク氏は

現状においての大規模言語モデル(LLM)が
どのような分野で役立つか、
といった指標を発表しました。
(LLMとは
ChatGPTの仕組みのようなものです)

これは、あくまでも
現時点(2023年)での評価です。
知っておくと便利なので、以下に掲載しておきます。

LLM機能と有用性の暫定的評価

評点1:結果は整合的ではなく、
・・・・人間のチェックが必要

評点2:チェックは必要だが、
・・・・時間的節約が可能かもしれない

評点3:ワークフローへの導入では
・・・・時間的節約が可能。

カテゴリー タスク 評点
アイデア出し ブレインストーミング
アイデアの評価
反論の提供
文章作成 箇条書きからの文章作成
文章の編集
文章の評価
キャッチーなタイトル/
見出しの作成
論文を宣伝するための
SNS記事の作成
研究の
裏方的仕事
文章の要約
文献調べ
参考文献の書式決定
文章の翻訳
概念の説明
コード関係 コードを書く
コードの説明
コードの翻訳
コードのバグ取り
データ分析 文章からのデータの抽出
データの再フォーマット
文章の分類と評価
文章からの感情の抽出
人間を被験者とするサーベイ、
実験の回答シュミレーション
数学的導出 モデルのセットアップ
方程式の導出
モデルの説明

こうして、表をみると、
やはりAIは
文章作成が得意なことがよくわかります。

AIが登場したとき
AIだから、コードとは相性がいいだろう、
と勘違いし、
使ってみたのですが、
あまり役に立たず・・・

自分の指示の出し方が悪かったのかと、
思っていたのですが、
そもそもAIは、まだ、
コードが苦手なようです。

以外なことに
数学も苦手なのですね。

ただ、日本語教育で
どう、AIを利用できるかを考えたとき、
まだまだ難しいと感じています。

文献調べは
AIの最も不得意な分野だし、
概念の説明も不得意。

日本語文法に関しても、
正しい答えが出てきたためしがありません。

そのうえ、
かなりの高確率で
まことしやかに、うそを言うので、
今はまだ、
日本語関連で使うには危険すぎます。

いつか、上手な活用法が
見つかったら、
すぐにお伝えしますね。
(もうすでに、
こんな風に利用しています、
という方がいらっしゃっいましたら、
ぜひ教えてください)

AIが嘘をつくのはどうしてか?

多くのことを
いとも簡単にこなせてしまう
ChatGPTですが、
まだまだ、課題があります。

日本語の授業準備に使いにくいのは
まさに、
AIが「知ったかぶり」をするからです。

信じられないような解説もしますし、
ありえないことを
さも「現実にはある」かのように、
答えることもあります。

これは
ハルシネーション(幻覚)と呼ばれ、
人間の常識では考えられないような
間違いを犯す可能性を
常にはらんでいるということです。

現状のAIは
世界中のあらゆる文章

→あらゆるといっても、
取り入れることのできる文章だけであり、
すでに、ここで偏りがある
ということを知っておきましょう。

→また、取り入れるための文章を
選択するのは人間です。
つまり、
その人の偏向性が
AIの偏向性となります

AIは
様々な文章を学び、パターン化し、
最大公約数的な回答を導き出します。

ここも問題で、
最大公約数が常に真実である、
とは限りません

「AIの経済学」の著者、鶴光太郎氏が
とても分かりやすい例を載せていました。
ここに引用要約してみます。

ーーー
コペルニクスが地動説を唱えた16世紀当時に、
もしインターネットが存在し、
ChatGPTがあったらという
荒唐無稽な仮定をたてる。

その時に
ChatGPTに「天動説」と「地動説」の
どちらが正しいかと問えば、
圧倒的多数意見であった
「天動説」を支持するであろう。

ーーー
と、氏は述べています。

非常にわかりやすい例ですね。
つまり、
天動説の文章を多量に読みこんだ
AIの答えは「天動説」で、
「天動説」がいかに正しいかを、
まことしやかな文章で教えてくれるわけです。

AIの答えは
真実ではなく、
読み込んだ文章内の最大公約数である
ということは、
常に意識し、
忘れてはいけないと思います。

ネット検索で気をつけるべきこととは?
情報リテラシーの「だいふく」とは?

今、小学校では
ネット検索を行う際、
「どんなことが大切か」という
情報リテラシーを身に付ける
授業を行っているそうです。

私たちにも参考になると思いますので、
ここに記しておきます。

①「だいふく」の「だ」

その小学校では「だいふく」を
合言葉にしています。

検索するときに、
まず見るべきポイントは
いふく」の「だ」=「だれ」です。

その情報を出しているのが、誰なのか?
身元のしっかりしている人なのか、
実名でその情報を提示しているか
(匿名でないことも大切だそうです)

これは、私自身も感じているのですが、
実名で自分自身をさらすということは、
本当に勇気がいります。
色々な方から、
様々なご意見を頂戴します。
実名掲載では
火の粉は全て自分自身が被る、
という覚悟が必要です。

また、
実名で情報を提供するには、
載せる情報の正誤に対して、
かなり慎重になります。
根拠があるのか否かは、しっかり調べます。

 

匿名と実名とでは
情報を提示する前の
段階で、
その責任と重圧に、大きな差があるのです。

ですから、
自分の調べたネットの情報提供者が
きちんと実名を出しているかは、
その情報の信ぴょう性の確かな根拠となります。

②「だいふく」の「い」

「い」は「いつ」の「い」です。

例えば、
インスタやラインなどで流れてきた情報が
いつのものなのか、
確認することが必要だそうです。

特に、災害時に情報を見るとき、
それが1年前の情報だとしら、
役には立ちません。

➂「だいふく」の「ふく」

「ふく」は「ふくすう」の「ふく」です。

これも、災害時のポイントとなります。
その情報が複数あるのか、
複数の人が、
その情報をアップしているのか、

見落としがちなポイントですね。

以前、大水害の時に
動物園のライオンが逃げ出した、という
嘘の情報が出回ったことがあります。

こんなに緊急性のある情報なのに、
情報発信者がたった一人だった、
ということで
「これはフェイクではないか」
とわかった人もいたようです。

信じた人は、
とても怖い思いをしたに違いありません。

情報を見きわめるには、
『だいふく』が大切です。

●だ:誰が言ったのか、(実名か?)
い:いつ言ったのか、
●ふく:複数の情報を確かめたのか?

この小学校の情報リテラシーの授業、
心にとめておこうと思います。

 

生成AIについて、
もっと知りたい方は
以下をクリックしてください。

→チャットGPTについて(その1)

→チャットGPTについて(その2)

→生成AI・チャットGPTについて(その3)

→生成AI負の側面(その4)

→日本の生成AIの進化が止まらない??(その6)

→生成AIの危険性に対抗するために(その7)

 

ではではニゴでした。

 

コメントを残す

CAPTCHA


サブコンテンツ

このページの先頭へ