読者からの質問:
最近、ChatGPTに大学入試の英語の問題を解かせてみたんですが、下線部が指しているものを本文に基づいて答えさせると、精度がどのくらいなのか気になっています。解答を見ていると、明らかに指している部分が違っていることが多かったように感じました。これって普通のことなんでしょうか?
読者の質問にお答えするよ!
最近、友達とお茶をしているときに、大学入試の英語の問題について話題になったんだ。彼が「ChatGPTに解かせてみたら、全然ダメだった!」って笑いながら言っていて、その時の彼の顔が面白くて、思わず笑っちゃった。
実は、私も前に試したことがあって、最初は「これならいけるだろう!」って期待してたんだけど、下線部を指している部分を答えさせると、意外と外れた答えが多かったんだ。特に「これって何を指してるの?」って聞かれた時に、まったく違うところを指しているのを見て、ちょっとショックだったよ。まるで漫才のボケとツッコミのやり取りみたいだった!
人間の感覚はやっぱり特別だね
その時、自分たちが普段どれだけ文脈やニュアンスを大切にしているかって、改めて感じたんだ。AIは情報を処理するのが得意だけど、人間の感覚や直感にはかなわない部分があるよね。言葉の裏にある気持ちや、微妙な表現なんかは、やっぱり私たちが感じるものだと思う。だから、彼と「AIが完璧じゃないってことは、まだまだ人間の出番があるってことだよね!」って盛り上がったよ。
でも、逆に言うと、AIと一緒に勉強することで、自分たちの理解も深まるかもしれない。あの時、友達と一緒に大笑いしながら、問題を解く過程が楽しかったし、少しずつ理解が深まっている気がしたんだ。お菓子を食べ過ぎてお腹が痛くなったのは内緒だけど(笑)。
あなたの体験も教えて!
もしあなたもAIに問題を解かせたり、英語の勉強をしたことがあれば、ぜひコメントで教えてほしいな。どんな体験があった?面白いエピソードとか、役立つコツがあればシェアしてね!みんなで楽しく成長していけたらいいなと思ってるよ。