AIに論文を読ませる

雑記

「ワープロで書いた文章は、誤字脱字があっても気づかないので、卒論は手書きでの提出とする」

指導教授は僕らに向かってそう言った。1990年代も終わりの頃の話だ。

念のために言っておくと、当時、ワープロはもちろんパソコンも普及しはじめていて、就職活動もインターネット経由で行われるようになるからということで、大学にもパソコン室が設置されるようになっていた。教授は素晴らしい先生だったけれど、民俗学の大御所であり、新しいテクノロジーが学問をどのように変えるのかといったことにはあまり興味がなかったのだろう。

「生成AIを研究指導や教育に用いてよいか」という話題が出るたびに、僕はこのエピソードを思い出す。反対派曰く、生成AIは平気で嘘をつく、間違った回答を返す、自分で考えなくなる、ゆえに、自分で本を読み、資料をまとめて論文を書くことに勝るものではないのだと。

確かに現代に至るまで、日本語文字入力の誤変換はなくなっていないし、「見られ無い」「〜のように成る」のような日本語入力ソフト由来の奇妙な漢字変換を気にも留めずにレポートを提出してくる学生も後を絶たない。しかしだからといって、手書きでの提出しか認めないという教員はまずいないだろう。

これは、僕たちの知的能力が退化し、日本語の扱いがいい加減になったということなのだろうか。そうではない。要するに、誤変換に気づかないような人は手書きでも誤字脱字を見落とすし、丁寧にチェックをする人はどんな手段で文章を書こうとも、最終的な成果物のクオリティを高めるものなのだ。指導するべきは技術に頼っていいかどうかではなく、自分の書いたものに最後まで責任を持たなくてはならないということだ。

生成AIは、ワープロのように文章を書くことに特化した技術ではない。もちろん文章の生成や誤字脱字のチェックといったことを行うこともできる。しかしこの技術が研究指導や教育に与えるインパクトはそれにとどまらない。レポート執筆のネタ出しや就職活動の書類作成、自己分析の壁打ちなど、既に学生たちはあらゆることにAIを使い始めている。この状況では、AIの利用に制限をかけたり禁止したりするよりも、もっとも効率的な、あるいは質の高い結果が得られる使い方を指導する方が合理的だ。

そんなわけで今年から学生の指導に「生成AIの使い方」を盛り込むようにしている。とりわけチャレンジだなと思うのは、「先行研究の論文を読むのにAIを用いる」ということだ。

最初に言っておくべきだと思うけれど、AIを用いて本文を読まずに先行研究レビューを済ませてしまおう、という話ではない。ともするとそのような間違った使い方をしてしまう学生に対して、論文を理解するためのアシスタントとして生成AIを用いるテクニックを教えるということだ。ただし、この分野の技術の進化は早く、ビジネス的な競争も激化しているので、次々と新しいサービスや利用法が生まれているから、あくまでその時点での暫定版の指導ということにはなるけれど。

僕が学生たちに勧めているのはChatGPTではなくてClaudeだ。あくまで主観の印象だけれど、ChatGPTは理系論文や心理学、政治科学のようなフォーマットが決まった計量的データを用いた論文を要約する際には有益な結果を出すものの、論旨がリニアではなく、主要な論点と枝葉のトピックの区別がつきにくい文系の論文の要約では、書いてあることを全体的に圧縮したような要約になるのでかえって読みにくいことの方が多かった。これに対してClaudeであれば、無料版でも比較的読みやすい要約を出力してくれる。

試みに、僕の論文「ソーシャルメディアとオーセンティシティの構築」をClaudeに要約させたものを見てみよう。

正直に言えば、この論文は論旨がリニアでもなければ、用いられている概念の定義が明瞭なわけでもなく、その意味で記述上の課題の多いものだと思っているのだけど、それでも「節ごとに」と指示すれば、上の図のように論点を絞って要約してくれる。筆者としても、そこまで違和感のある要約ではない。

さらに踏み込んだ利用法としては、「分からない用語を解説させる」というものもある。例えば以下のようなケースだ。

ここでは、この論文のキー概念である「マテリアリティ」を、論文の文脈に沿って解説している。ここで大事なのは、筆者自身が書いてもいない解説を、Claudeが補足的に生成しているということだ。ではこれはAIによる捏造なのだろうか。そうではない。僕がこの論文を学生に読ませるときにも、こうして論文には直接書かれていない説明を補足しながら「要するにこういうことだよ」と解説することがあるし、それは自分で書いた論文、著書でない場合も同じだ。そう考えるとこの解説は、ある面では嘘をついているのかもしれないけれど、ある面では正しく解説してくれているとも言える。

大学院に進学したり、プロの研究者になろうというのであれば、本文をきちんと読んだうえで理解すべきだとは思う。だが、多くの学生にとって研究論文を読むというのは、就職活動や内定先から求められている資格取得の勉強よりはるかに優先度の低いものであり、ひと目見て「難しい」と感じた瞬間に棚上げにしてしまうようなものだ。一方で文系の卒論指導においては、指導教員がテーマを指定したり与えたりすることはないので、自分でテーマを決めて、関連論文を読み、リサーチを行った上で独力で書き上げなければならない。そこで、自分なりに論文を読み進めるきっかけとしてAIに解説を求めるテクニックを覚えておくことは、学生にも教員にも様々なメリットがある。

まず、指導の有限なリソースを配分しやすくなるということだ。よくあるケースだが、熱心に論文を読んで質問してくるような学生の方が教員にとっても指導のしがいがあり、一方で論文を読む能力が追いついておらず、ぎりぎりまでサボっているような学生にはあまり手をかけることがない。つまり、一部のやる気のある学生以外は(本人に伸びしろがあっても)放置されがちである。「この論文、要約してもらったらこういう話になったんですけど合ってますか?」という質問が出るようになるだけで、教員が指導に関われる余地が増え、一方で指導の労力が合理化される。

さらに、生成AIを使ってゼロからリサーチプランを立てたり研究論文を要約したりできるようになるために、適切なプロンプトを覚えたり、タスクを分解したりする能力が身につく。学生がAIを様々な場面で利用し始めていると書いたが、実際の様子を見せてもらうと、いわゆる一問一答式の応答が多く、またLINE世代らしくプロンプトが10〜15文字程度と短い。実際には、回答に対する改善要望を出したり、そのためにどの部分に問題があるかを明確に指摘したりすることで回答の質が上がるのだけれど、こうしたスキルは、研究とかテクノロジーではなく、人のマネジメントやチームワークのスキルと関連が深く、非常に汎用性が高いものなのだ。

AI関連技術はいまや多くの分野で利用されるようになっているが、こと一般の人が使う場面となるとまだまだその芽もないという状態かもしれない。だが、適切に使いこなせばこの技術は、スキルの民主化を進めて、中間層の底上げに寄与する可能性がある。というよりも、そのように使っていかなければ、人類は、格差を拡大させる一方のこの技術を自ら規制し、手放すことになりかねない。小さくても、僕はテクノロジーを使ってできることが増えた人を増やす方が大切だと思う。

タイトルとURLをコピーしました