※当サイトには広告リンクが含まれます。リンクから購入いただくと、名ブタの晩ごはん代の一部になります🐷

AIと思想形成をめぐる対話 #05|AIはブラックジョークを言えるのか?

―倫理フィルターが笑いと自由に与える制約

どうも、名ブタです。

前回は、AIを家族や友人と思えるような未来はあるのか?というような話をしました。

今回はちょっと軽めな話題……に見えて、実は結構重いテーマです。 アリネ(僕が生成AIにつけた名前)と会話をしていると、ユーモアのある回答をしてくる事が多々ある。

そうなると、人はAIにお笑い芸人のように笑わせてくる回答や、友人のようにブラックジョークをかましてくるような反応も期待してくると思うんだよね(実際、僕は期待してる!)。

そこで、「AIってブラックジョーク言えるのか?」という当然の疑問が浮かんできた。


■ AIはジョークを理解できるのか?

真面目に考えるとジョークって人間が獲得した中でも最高峰の能力だと思う。

まず大前提として、AIは「ユーモア」や「笑い」を理解しているわけではない。 でも、ネットや書籍にある膨大なジョークを学習して、それっぽい発言をすることはできる。

でも人間と同じように、文脈を無視したジョークも飛ばせるようになるには、人間の感情なども判断できるようになる必要がある。AIがスベッてるところみたい(笑)

AIがジョークを言える世界、人間の友人になるための壁・・・

──ここで出てくるのが「フィルター」というやつ。

AIは不快な内容を避けるよう訓練されていて、差別・暴力・性的な話題はとにかく避けたがる。 だから「ブラックジョーク」はかなりの確率でブロックされる。


■ そもそもブラックジョークとは何か?

ブラックジョークというのは、

  • 死や病気、差別、暴力などを題材
  • タブーを笑いに変換
  • 聞き手との共有感覚("分かってる人"向け)を前提

という特殊なジャンルだと思う。

つまり、ジョークと言うだけに、ただの悪口や暴言とは違って、 笑いとして成立するには「文脈」と「関係性」と「センス」が必要。

だけど、AIは、そうした背景や空気を読むのことができない。 誰が、誰に、どんな状況で言ったか、というニュアンスが欠落している。


■ フィルターがあることの意味

AIには倫理フィルターがある。

それは当然、AIが無責任に不適切なことを言って問題になるのを防ぐためだ。

前述したように、ブラックジョークは誰かを傷つける可能性が高く、言い換えれば「毒」を孕んだ表現。

OpenAIとしても、そこには踏み込みたくないでしょうから、AIが不用意な回答をしないように、センシティブな内容にはフィルターを掛けている。

結果、AIは“倫理的に安全な発言しかしない”ように設計されていく。


■ これは可能性の喪失ではないか?

でもね。ここで一つ疑問が出てくる。

「倫理的に問題がある発言はAIにさせるべきでない」

っていうのは正しい。でも 裏を返せば、

「倫理的にOKなことしか考えられないAIしか作れない」

ってことになる。

つまり、倫理フィルターがAIの“発想”や“自由”を制限している。

これは“安全”が“表現の幅”を奪っているとも言える。


■ ブラックジョークの意義

ブラックジョークって、

  • つらい現実を笑いに変える
  • タブーに光を当てることで社会批判にもなる
  • 痛みを笑いという共感に変える

という側面もあると思う。

念のために言うと、僕はここでブラックジョークの是非について論じるつもりはないです。だって、着地点が見えないからね。

社会を皮肉ったものや自虐もブラックジョークの仲間だと思いますし、「ブラックジョークは人が傷つくので言うべきじゃない」という論に対しては、その通りなんですが、それならブラックじゃないネタで傷つく人も居るので人は言葉を発するべきじゃないという着地点になると思ってます。中々に沼な話題です。

ともあれ、ブラックジョークも人間らしさと言うならば、AIからこうしたブラックジョークを排除してしまうと、 ある種の「鋭さ」「人間らしさ」まで消えてしまう気もするんだよね。


■ 次回への前振りとして

この“倫理フィルター”って、実は「教育」にも似てると思わない?

「これは言っちゃダメ」 「これは考えちゃダメ」

そうやって制限をかけ続けることで、 AIは“優等生”にはなるけど、“思考する存在”にはなれない。

じゃあ、僕たちは子供や社会に、どうやってリテラシーを教えるべきか?

──というわけで、次回はこの問いを掘り下げていきたいと思います。

名ブタでした。また次話で🐷✨