AIによる思考誘導
先日、自分のナレッジベースに、Webニュースの ドイツはいったいどこへ向かっているのか-16歳の女子生徒が校長の通報で警察に連行された事件の恐ろしさについてメモをしたのだが、ある程度記事の内容を引用していた最中、copilotが文章を補完してきた。
記事の内容はドイツのギムナジウム(小中高一貫の学校)で生徒に対する言論統制がなされている、という話だが、元記事中の特徴的な文章を引用していたところ、copilotが以下のように文章の補完をしてきた。
「彼女は、授業中に『ドイツはいったいどこへ向かっているのか』という質問をしただけなのに、校長が警察に通報したんです。それが、彼女がTikTokで何かを言ったという根拠になったのかもしれません」(同校の生徒)
不思議なことにこの文章自体は記事の文中にはなく、おそらく記事を要約してcopilotが文章を補完したのだろうが、大いに違和感というか、ちょっと危ねえな、という不安を感じた。そもそも記事内には「同校の生徒」の上記のような発言は見つからず、完全にcopilotが「同校の生徒」であるかのように振る舞っている。
個人的には「おお、大規模言語モデルがここまで文章を補完できるようになったのか」という驚きのほうが大きいのだが、テクノロジー寄りの私のような野郎以外の人々は、このような文章補完が行われることに対してどのような感情を抱くのだろうか。
「要約」であればいいのだが、さも「誰かの言葉」のように振る舞うのはいかがなものか、と。
実際この文章を書いている途中でも、文章の続きをcopilotが補完してくれるのだが、批判を含んだ文章の補完時に、「この要約は読み手にとって有用である」とか、自賛する補完が多く現れた。
プログラムコードをコメントで指示するだけでガッツリ書いてくれるとかは便利なのだが、こういったエッセイや言論に関わる文章については、エディタに文章を書いている先にそれなりに整った文章をサジェストしてくるので、気をつけないとAIに思考誘導をされてしまうかもしれない。