シリコンバレーの有名投資家、リード・ホフマン氏はChatGPTを提供するOpenAIの最初期の投資家であり、元取締役でもある。そのホフマン氏がGPT-4と対話しながら未来を予測した新刊『ChatGPTと語る未来』から、3回目となる今回は、ChatGPTのハルシネーションと呼ばれるウソの危険性について抜粋して掲載する。
OpenAIが2022年11月30日に「リサーチプレビュー」として試験的にChatGPTを一般公開したとき、「ChatGPTは、一見もっともらしく見えても、内容が不正確か、あるいはまったくでたらめな答えを出力することがあります」と公式ブログで警告した。
それからたった5日で、100万人がChatGPTを試すために登録をした。そして彼らが使用感を語るにつれて、ChatGPTがもたらす「ハルシネーション(幻覚)」(誤りやねつ造、あるいはアルゴリズムの異常による奇妙な答えがたびたび出力されること)が、ソーシャルメディアやニュースで注目を浴び、この新奇なチャットボットの第一印象を決めるのに一役買った。
そのため、これから取りあげる例の一部は、もはや「古い」情報に思えるかもしれないが、そこは大目に見てもらいたい。
- ハーバード大学のある研究者によると、「それ」が事実と主張するものには「すべてダブルチェックが必要」であり、しかも「数あるソースのなかの1つにすぎない」ことを忘れてはならないという。
- ワイアード誌のある記者は、「それ」は本当に生産性を高める進歩なのか、それともただ「間違った情報を大衆にばらまく」方法が1つ増えただけなのか、と疑問を呈した。
- ある有名なジャーナリストは、ケネディ兄弟の暗殺事件で自身が果たした役割について憶測まじりで書かれた紹介文を読んで、「それ」を「欠陥を抱えた信用ならないリサーチツール」と呼んだ。
- 懐疑的なある編集者は、世間では技術革新と呼ばれている「それ」は、「子どもが何か質問をしたら、両親が誤りを訂正するために鉛筆を手に取るより早く、間違った答えを返してくるもの」と表現されるべきだと述べた。
これらの例を読んで、少し古い情報だと思ったとしたら、その感覚は正しい。ここで話題になっている「それ」は、ChatGPTではなくWikipediaを指していて、例はすべて、2000年代中盤の記事から引用したものだからだ。
からの記事と詳細 ( ChatGPTのウソの危険性、元取締役の有名投資家はどう見るか - 日経ビジネスオンライン )
https://ift.tt/9QNWlfP
No comments:
Post a Comment