トップオピニオンメディアウォッチ分かりやすく「チャットGPT」紹介も「偏向」の危険性指摘甘いアエラ

分かりやすく「チャットGPT」紹介も「偏向」の危険性指摘甘いアエラ

OpenAI 社の公式サイトトップ(同社HPより)

「なくせる仕事」特集

地域貢献の一環として中学校で1年生を対象にした「職業人に聞く」という授業の講師を毎年行っている。今年は「新聞は“オワコン”と言われている」「将来AI(人工知能)が記事を書き、新聞のレイアウトまでしてしまう」という身もふたもない話をしてしまった。

とはいえ、13歳が職に就くのは約10年後で、その時になくなっているかもしれない職業に「文章執筆や記事を書く仕事」が挙げられていて、だから、彼らの希望を潰(つぶ)したというよりも、将来に備えるアドバイスとして話したつもりだ。

この予測をしたのが今“100年に一度の産業革命”と言われている「人工知能による対話型の自動応答ソフト」チャットGPTである。アエラ(3月20日号)が「なくなる仕事、なくせる仕事」を特集した。

チャットGPTとはコンピューターが人の問いに対して、溜(た)め込んだ膨大な情報を駆使して、まるで対話をしているかのように自動で答えるソフトのことである。「『note』深津貴之さん」は同誌に「ひと言でいうと、GPTとは、『確率上それっぽいことを喋るAI』のこと」と説明しており、言い得て妙である。世界でユーザーが短期間に爆発的に増えている。

こうした技術が進化普及することで人間に取って代わって仕事をしてくれるようになるという。こう書くと「人の職が奪われる」と考えがちだが、技術とは仕事を便利にしたり効率を良くしたりするためにあるものだ。

いかに使いこなすか

同誌は弁護士の例を挙げている。膨大な判例の中からほんの数秒で最適を引いてきて、幾つかの提案を出す。実際の弁護活動は判例が分かっていればできるというものではない。GPTはあくまでも弁護士の補助、パラリーガルとしての機能・役割なのだ。

なくなる仕事ということで言えば、英オックスフォード大が発表した「雇用の未来」でAIの発達でなくなる仕事が今の「47%」と予測したが、「実際に『なくなった』といえる仕事はほとんどない」のが実情だという。

チャットGPTに「なくなる仕事」を聞いてみると、「私は人の仕事を奪うことは意図しておらず、そのようなリストを提供することはできません」と答えたと言う。しかし、「なくせる仕事」はあるといって17の業務を挙げた。これに「単純作業やカスタマーサポート、文章作成など」が入っている。

GPTは「渡された文章に対して、一番もっともらしい続きを書いていく機械」なのだから、問題はどう使いこなすか、言い換えれば、どう聞いて、どういう答えを引き出すか、にかかってくる。深津氏は「自分が欲しい情報を書いてもらうには、何を入力すればいいかというのがGPTの本質なわけです」と言っている。何でも自動なのではなく、基本は人間が命令して働かせるのだ。

「うそつく」と批判も

もちろんAIが溜め込んだ情報の中にはフェイクも入り、偏見も交じる。そんなことを斟酌(しんしゃく)なしに「もっともらしい」ことを答えるのだから「GPTはうそをつく」という批判ももっともなところもある。

米紙ワシントン・タイムズ(WT)がGPTを使ってみたところ「リベラルに偏向している」「左寄りの視点を持ち、保守的な視点を理解できなかった」そうだ。ビッグデータに蓄積された情報の内容と量が問題となってくるのだ。

これから社会のあらゆる面で活用されてくるチャットGPT。同誌はそのほんの触りを紹介したものだが、デジタルを苦手とする人には分かりやすい紹介となっているものの、この「偏向」の危険性についての指摘が甘い。

WTは「ジョンズ・ホプキンス大学で連邦議会の機能について講義しているジョエル・キャノン氏は、『あの回答は正気の沙汰とは思えない。明らかに偏っている。子供を洗脳するために左翼がプログラムしたロボットから道徳の講義を受ける必要はない』と述べた」と紹介している。

中学生には「AIに任せず、人間がやるべきことはなくならない」と伝えて締めくくった。(岩崎 哲)

spot_img

人気記事

新着記事

TOP記事(全期間)

Google Translate »