AIと歴史を書くゼミ – ChatGPT時代のヒストリオグラフィーを考える授業に参加してきた
\ この記事を共有 /
AIと歴史を書くゼミ – ChatGPT時代のヒストリオグラフィーを考え...
※当ブログではアフィリエイト・Google AdSenseによる広告を掲載しています※
※当ブログではアフィリエイト・Google AdSenseによる広告を掲載しています※
Guten Tag! ドイツでママ大学院生をやっているWebライターのあさひなペコです🐣
今回は、2025年夏学期にカッセル大学で開講されたゼミ「Geschichte schreiben mit ChatGPT(ChatGPTで歴史を書く)」について、受講メモをかねてゆるっとまとめてみます。
タイトルからしてインパクト抜群なんですが、中身はというと「AIと歴史学の関係を徹底的に考える」という超・現代的な内容。
ChatGPTを例に、AIがどんなふうに歴史を“読む”のか、どこまで史料を理解しているのか、そしてAIが作る歴史的ナラティブにはどんな危うさが潜んでいるのか。
そんなテーマを実際に検証していく授業でした。
ゼミの概要:AI×歴史=新しいヒストリオグラフィー
この授業のモットーは、「デジタル技術と歴史学の“関係”を批判的に見つめ直す」です。
近年のAIブームを受けて、ChatGPTのようなテキスト生成モデルが“歴史を書く”ことにどんな意味を持つのかを実践的に探る、というものです。
授業ではこんな問いを中心に議論しました👇
-
AIが歴史的テーマをどのように扱い、史料をどう“読む”のか?
-
生成されたテキストは、どこまで「歴史」と呼べるのか?
-
AIの使い方次第で、歴史叙述はどんなバイアスを生むのか?
特に印象的だったのが、「Fake History(偽の歴史)」を扱った回。
AIがつくる“もっともらしい嘘の歴史”を題材に、「私たちは何を“信じた”ときに、歴史を理解したと思うのか?」という問いをめぐって、白熱したディスカッションが多々ありました。
ゼミのねらい(ペコ意訳)
教授いわく、このゼミの目的は単なる「AIの使い方」ではなく、AIと“どう付き合うか”を考える訓練。
内容的な目標
💻 スキル的な目標
-
ChatGPTなどが生成するテキストを批判的に読む力を養う
-
どの部分がAIの“思い込み(バイアス)”かを見抜く
-
AIを使ってデータを分析したり、結果を検証する方法を体験する
💭 倫理的な目標
初期からWEBライターとしてチャットGPTを使用してきたから、本当にもう、色々考えさせられる内容でしたよ!
歴史を「理解する」とは? Hermeneutik(解釈学)との出会い
初回は「理解とは何か?」という哲学的テーマからスタート。
Roscher先生いわく、歴史研究とは“事実の収集”ではなく“解釈の連鎖”。
ここで登場したキーワードが「ヘルメノイティク(解釈学)」。
つまり、私たちは“意味”を読み取る存在であって、AIのようにただ言葉を統計的に並べるだけではない、という立場です。
でも同時に、「AIもまた、私たちの“理解の鏡”になるかもしれない」という逆説的な議論も。
ChatGPTに歴史を語らせると、“ありそうだけど違う”部分が目立つ。
その“ズレ”が、人間の理解の輪郭をかえって浮かび上がらせるんです。
「ChatGPTは理解できない」? Hiltmannのデジタル・ヘルメノイティク
ある授業では、Torsten Hiltmann氏の論文を読み、「デジタル・ヘルメノイティク(Digital Hermeneutics)」という概念を学びました。
彼の主張をざっくりまとめると👇
人間は「意味」を理解するが、AIは「記号」を処理するだけ。
しかしその“ズレ”こそが、現代の理解学の新しい出発点になる。
授業では、AIに中世の史料を読ませてみる実験も。
ChatGPTは古語をある程度解釈できても、歴史的文脈や文化的背景までは“理解”できないことが判明。
つまり、「意味をつなぐ」作業は、やっぱり人間にしかできないってことです。
AIに完全に仕事を取られる未来はまだまだ先っぽいね。
Kontrafaktische Geschichte(対抗事実的歴史)とAIが生み出す“ありえた歴史”
別の回では、「もしもナポレオンがロシア遠征に勝っていたら?」といった仮想歴史(Kontrafaktische Geschichte)をAIに書かせる演習もありました。
AIが生成する物語は一見もっともらしいけれど、史料の裏付けや因果関係の理解が欠けている。
つまり、“説得力はあるのに根拠がない歴史”ができてしまうんです。
でもこの演習を通して、「人間は“どんな物語を信じたいか”で歴史を読んでいる」ということに気づかされました。
Fake Newsと歴史的「真実」——AI時代の史料批判
近年のFake News問題もゼミの重要テーマのひとつ。
Roscher先生いわく、
「史料批判は、いまやAI時代の“メディア・リテラシー”だ」
とのこと。
AIが生成する“もっともらしいけど間違った”テキストをどう見抜くか?
学生同士で討論し、ChatGPT自身にも判定をさせてみたのですが、正答率はまさかの五分五分……。
結論として、AIはフェイクを見抜けない。
だからこそ、人間の“批判的読み”がますます重要になるってことです。
まだまだ人間の未来がありそうでよかった。
倫理の話:AIを使ってレポートを書くのはアリ?
後半では、Oliver Bendel先生の「情報倫理」を題材にディスカッション。
テーマはずばり、「ChatGPTでレポートを書くのは倫理的にOK?」w
やっぱり意見は真っ二つに分かれました。
-
“AIはツールだからOK”派
-
“理解を代行させるのはNG”派
最終的な結論は、「AIに書かせるのは自由。でも“理解”を任せてはいけない。」です。
ChatGPTは“筆を持つ助手”にはなれるけど、“考える主体”にはなれない——そんな共通認識が生まれました。
AIを正しく理解して、ツッコミになれば、上手に向き合えるってことだ!
まさに以下の記事につながる内容なので、ここまで読んで、AIと歴史に関するトピックに興味が出た人はぜひ↓
終わりに:AIと歴史家が“共著”する未来へ
このゼミを通して感じたのは、AIは「歴史を奪う」存在ではなく、むしろ「歴史の語り方を再考させる」存在だということ。
人間が持つ文脈感覚・倫理観・語りの力こそ、AI時代のヒストリオグラフィーを支える核になる。
私はAIに対する徹底的ツッコミ役に徹しながら、これからも「AIと一緒に考える歴史の書き方」、ゆるく追いかけていきたいと思います( ´艸`)
最後まで読んでくれてありがとダンケ!
あさひなペコ