日本ではchatGPTをSiri扱いするバカが多いらしい。内容Wikipedia引用なのに


こんちゃ

久しぶりにおもしろいと思うニュースが出たのでそれに対して、日本人はかなり情報錯誤されてるな と思ったので紹介したいと思います。


それが


chatGPTがすごい



という記事が多く出ていますが、Siriの方がすごいんで、なんでなのかなと思ったら、各メディアが話題がないのであたかもchatGPTがすごいものとして言われています。

この情報に踊らされるのもまさに滑稽ですが、なぜ私はすごいと思わないのか紹介したいと思います。


実はこんなところがやばいchatGPT

1、chatGPTが学習している情報は2021年の段階のものだけ

 それ以降の情報はないので最新の更新されている情報はネットニュースの要約など特定の分野のみです。それに加えて日本語で質問すると日本語の記事を参照して回答するのでより正解率は低いと言われています。

ネットをよく使う人、検索する人はわかると思いますが、2023年現在、2021年を含むそれ以前のネット上記事は検索しても、検索結果が少なくない限り検索Topには表示されません。

 また、記事作成日が1年以上前の場合、記事中または検索エンジンで警告が出るのが今のネットリテラシーでありサーバーサイドのルールです。

 機械学習という言葉を、教えたら成長すると思っている人がいるのですが、教えたら記憶するが正解で、違うチャット欄を出したら、過去に話した内容は利用できませんので同じ話題を話すなら同じチャット欄で会話を続ける必要があります。ChatGPTのサーバー自体に会話内容覚えさせてるってわけではないですね。

 ChatGPTはユーザー側がAIまたはプログラムに対して話しかけて解答が適切、または不適切とユーザーからのレスポンスがあった際に、サーバー側に変更を加え、他ユーザーの利用にも影響を与えるシステムでもあります。このことをファインチューニングと言います。学習した機能を一部再学習させることですね。

簡単に言うと、ChatGPTは有名人以外を当てることができるアキネイターですが、利用ユーザーから答えを求めないので情報が偏るのを防げています。



2、専門的な質問に対しての回答の正解率が平均50%で最悪。

 1が理由と思いきや、これはChatGPTが特定のサイトからの情報を多く保持しているため、回答に偏りが大きく、同じ質問を2回すると、違う回答が返ってきます。また3のことがchatGPTですごいことでもあり、大きな欠点のため、回答の正解率が低いです。

特定のサイトっていうのが辞書や2021年のWikipedia記事のようです。

ちなみに1回目にWikipediaの内容が返答で来ると、同じ質問をした時に2回目以降は設定された言語ではない他の国の言語のWikipediaのようです。※Wikipediは言語によって同じタイトルでも内容は違います

ChatGPTのデータリソースはニュース記事、書籍、掲示板、ブログ、Wikipediaです。

まぁ〜書籍から以外の返答だったら実質『ババアの噂話』程度の信憑性なので、合ってるときは合ってるけどほぼなんかちゃうって感じです。

本来ChatGPTを作ったOpenAIも『一般的な質問に対して回答できる』と言っているのでそもそも日本人の多くが『文章作れ』だの『献立作れ』だの、旦那や奥さんにお願いしている内容を聞いてくれる仕様ではありません。ちなみに文章作れで特化されたAIはBingで献立はAIではないですが、材料からソートできるクックパットが優秀です。

 これらはアメリカの様々な試験をGPTに受けさせてその回答の正解率が50%であったということです。医師免許などの医療試験など、経理などの数学的回答や弁護士試験などの論理的回答の試験ではない為、正解率は低いですが、我々がAIに質問したい時求める回答が専門的内容がほとんどのため、正解率は50%であると思っていた方がいいですね。


3、回答にNIL(なし)がない。

 必ず答えを出す。言い換えれば、答えがないのに答えを作る。どんな質問でも必ず具体的な答えを出す。

ちなみにこれらを曖昧な回答でもデータとして保存しないといけない(プログラミング用語で非オプショナル型)といいます。

言い換えれば、答えがないを許さないプログラミングの型でAIは必ず答えを出す。



そのため、明確な答えがない場合は、AI自身が勝手に答えを作ってしまいます。それが曖昧な回答で専門用語で言うと『オプショナルの強制アンラップ』と言ったところでしょうか?

プログラミングがわかる人からすれば、とてつもなく素晴らしいAIです。

答えが必ずあるってことはバグが起こる確率がかなり低いですからね。

Nilを許容するとNilの場合のこと毎回考えないといけないから。。。

それ故に曖昧な回答でもその回答が合っているように聞こえてしまうんですね。

基本的にAIの返答では辞書や確定した内容以外は曖昧な回答なので、『以降の会話で曖昧な回答がある場合は語尾に『そんな気がする』と言ってください』というと、明確な答えなのか、曖昧な答えかがわかります。



4、論理的回答で成果を発揮する。

1〜3を読んでもらったらわかるとおり、明確な式と答えが存在するものであれば、完璧な回答ができます。それが翻訳機能と、プログラミングのコードを書くということに関しては今のところChatGPTがTopであり、それがすごいところです。一度チャットを開くとそのチャット内では過去の話の内容から考慮した回答を得ることができるのはこのChatGPTのみです。現在BingなどのAIを含む検索エンジンでは、過去の情報からの取得(カラム)は不可能であり。この機能が大衆的に使われているAIはChatGPTのみと言って過言ではありません。


他にはChatGPTがすごいというよりOpen AIがすごいというのが一番で、Open AIが公開した
『画像学習機能』は公開されてすぐ色々なエンジニアが使用して『AIイラスト』や現実世界の3D化なんてものが行われました。

私が見たものの例として、アプリにOpenAIの画像学習機能を入れると、写真を撮って学習させ続ければ、画像がなくても宣言したら画像を生成するってのが流行りましたし、簡単に導入できるってのがすごいですね。

医療分野では、特定の病気が写っているレントゲン写真を学習させ続けることで、レントゲンを撮った後AIがなんの病気にかかっているのか診断してくれる機能もここからきています。

OpenAIに感化されてGoogleが○○というAIを作った!とか言われてますが、感化されるも何も収益化できないただの辞書なので、GoogleのChromeでは前からChatGPTなどOpenAIの技術が使われている拡張機能はあります。YouTubeの動画を見なくても内容を代わりに要約するとかね。


まとめ

 何が言いたいのかと言うと。知りたいことあるならChatGPTに聞けばいいよ!でもその回答が合ってることなんて50%しかないんだから、Wikipedia見て論文書いてる大学生くらいやばいことしてるってことを自覚してChatGPTと会話した内容をツイッターに書いて恥かいてください


おまけ


 おまけでプログラミングしたりする私たちが使う裏技を少し紹介します。


自然言語処理AIの為、一般ユーザーが使用できる特定の予約語、コードはありません。


また以下の内容は公式であるOpen AIがおすすめの使用方法として提示しているものを多く含みます。




1  日本語ではない内容を質問して日本語で回答を得たいときは質問の最後に『 (in japanese)』をいれる。または、『以上の内容を日本語で回答』と書くとそれ以降日本語で返答がきます。、途中から(in English)と入力するとそれ以降の返答は英語版になります。


2  否定文をなるべく使わない。これは全てのAIやプログラミングに共通していますが、否定文を読み込むときに文の前後の内容を反転させる作業を行う場合があります。


例えば典型的な例では、


例:正しくないこともない。


例:持っていないというわけでもない。


このような内容の場合、サーバー自体がダウンしてしまうかもしれません。


これはプログラミングの事情によりより、肯定はTrue。否定はFalseとしてデータとして保存されます。二重否定は否定を否定しているので、FalseをFalseしてTrueになってしまいます。


コイントスをして、コインの裏が出た後、『その裏が表です』と言われ、無視してもいい当たり前のことを登録させてしまう為、質問内容が審議される段階でAIが混乱します。流行りのプログラミング言語はかいたプログラムのコードをプログラムに読ませるので、この辺はかなりシビアです。このようにBoolean(YESorNO)をBooleanで変更させることは通常しません。


3  前提条件をメモする


メモアプリなどに


『今から話す内容は、Android OSで動作するアプリの話で使用言語はKotlinです。SQLはルームを使用します。CRUDでの書き込みを優先しておりモデルは使用したくありません。画面遷移はナビゲーションシステムを使用します。また全てのエリアにおいてBindingを使用します。』


上記のような前提条件をメモしておけばChatGPTがバグで過去の会話内容が消えても、過去の内容とは異なるけど、違う方向性を途中から考えようとしても、ある程度のところで、会話を再開できます。一回ずつ話した内容をもう一回話すの嫌ですよね。


『私はお嬢様、あなたは私の執事で私の命令にいつも『イエス マイ ロード』と言い出して的確なアドバイスをくれるわ。』


これを新規チャット開始時に打つと、ChatGPTが執事になります。


ChatGPTに自己紹介を先にして『朝の挨拶を考えてください』と言うとより質の高い文を考えてくれます。


4  作ったものを見せて訂正を求める。


新規で作らせることは容易ですが、AIに新規でものを生成させると十中八九間違っているものができます。そのため、ある程度出来上がった文章や式に対して、『以下のコードを○○ができる機能を追加したコードに書き換えて』や、『以下の文章で間違えているところやアドバイスはないですか?』など、先に情報を与えることで、旧型の情報から新規に作成することを防ぐことがきるため、他人と文がかぶることも防げます。

5  文が途中で止まった場合は『続き』と入力するか『途中ではないですか?』と入力するといい。

ChatGPTが文章を途中でやめてしまう時があります。これらは以下の原因により起こるとChatGPT自体にヘルプとして入っています。

『私が途中で文書を止めることがある理由には、以下のようなものがあります。

質問が不明確である場合:ユーザーが質問を適切に定義できない場合、私はその答えを提供できません。その場合、私は質問の明確化を求めることがあります。

応答が必要な情報が欠落している場合:ユーザーが必要な情報を提供せずに質問を送信する場合、私はその答えを提供できません。その場合、私は必要な情報を提供するようにユーザーに求めることがあります。

質問が私の能力範囲外である場合:私が回答できない専門的な質問がある場合、私はその答えを提供できません。その場合、私はユーザーに専門家のアドバイスを受けるように勧めることがあります。

システム上の問題:システム上の問題が発生する場合があります。その場合、私は回答を提供できないことがあります。』


文を再開させる方法はいくつかあります。


『続き』

 と入力した場合、chatGPTは中断した文章の続きから書き出します。

『途中ではないですか?』

と言うと、きりのいい場所から再生成を行います。

前者の『続き』は、中断された文の続きをそのまま書いていきます。

後者はプログラミングのコードを書かせているときにはとても有効的です。

中断された文章自体を再審査し再度生成し直します。

後者を行った場合、ほぼほぼの確率で、なぜ文章を途中でやめたのかエラーの内容を教えてくれます。例えば、『一部○○の部分に誤りが見つかったため再生成を行います。』など

誤りを見つけた時点で生成を停止するシステムになっているのでこのようなことが起こります。

もしChatGPTが誤りを見つけた時点で自分で再生成を行うAIだった場合。質問を投げかけたらスーパーコンピューターではない限り回答は来ません。これが曖昧を生成する大切さです。曖昧があるから回答ができて回答が存在し。回答を作ること、確定することができます。





このブログの人気の投稿

AndroidのLINE文字入力できない。バグの解決方法まとめ。現在の暫定解決方法。Xperia以外でも対応可能。

LINE不具合、文字入力画面でない。文字表示されない。他不具合解決法(未確定)。

オンラインゲーム必勝法。【オンライン時の自分の状況を知る。】