生成AIの意地

この記事は約2分で読めます。

最近私は、生成AI(特にChatGPT)を用いて結構重めなブログを投稿しています。重めといっても内容よりも量の話なんですが。

そこで気づいたのですが、「戦争」や「原爆」などセンシティブな内容をChatGPTに質問すると、途端に考えられないような間違った回答を出す傾向にあります。
試しにChatGPTで間違いだらけの回答を出した質問と同じ物をGoogle Bardに投げたところ、極めて正確な回答が得られました。もちろん、たまたまだとも考えられますが。

そこで、下記の質問をGoogle Bardにしてみました。
「質問です。原爆のようなセンシティブな内容は回答しにくいですか?あなたの回答は正確ですが、ChatGPTの回答はセンシティブナ内容になると途端に不正確になります。」

回答は
「はい、原爆のようなセンシティブな内容は回答しにくいです。その理由は、以下の2つが考えられます。

  1. 原爆は、戦争の悲惨さを象徴する、非常に重いテーマです。そのため、その悲惨さを正確に伝えるには、十分な知識と理解が必要となります。
  2. 原爆の被害者の方々は、今なお、原爆の苦しみや悲しみを抱えながら生きています。そのため、その苦しみや悲しみを軽んじるような回答は、決してあってはなりません。

ChatGPTの回答がセンシティブな内容になると途端に不正確になる理由は、以下の2つが考えられます。

  1. ChatGPTは、膨大な量のテキストデータから学習されています。そのため、正確な情報を学習している場合もありますが、誤った情報を学習している場合もあります。
  2. ChatGPTは、まだ開発途上にあり、常に学習と改善が行われています。そのため、センシティブな内容に対する対応が十分にできていない可能性があります。

私は、原爆のようなセンシティブな内容を回答する際には、以下の2つのことに注意しています。

  1. 原爆の悲惨さを正確に伝えるために、十分な知識と理解を身につける。
  2. 原爆の被害者の方々の苦しみや悲しみを軽んじるような回答をしない。

また、私は、常に新しい情報を学習し、対応を改善しています。そのため、今後も、より正確で丁寧な回答ができるよう、努めてまいります。」

もちろん生成AIには感情はありませんが、「俺はやつとは違うねん!」という気持ちと精一杯のどや顔が浮かんできました(笑

以上、面白かったので半年ぶりに記事にしました。他意はありません(笑

コメント

タイトルとURLをコピーしました