AIに倫理観や歴史観を処理できるのか

広告

■フェイスブックの写真検閲の件がニュースになっています
フェイスブック「ナパーム弾の少女」写真検閲で物議 批判受け撤回

【9月10日 AFP】交流サイト(SNS)最大手のフェイスブック(Facebook)は9日、ベトナム戦争(Vietnam War)でナパーム弾攻撃の被害を受けて逃げる裸の少女の写真に対して自社サイト上で行っていた検閲措置を撤回した。検閲措置に対しては、ノルウェーの首相を含む多数の人々から批判が集まっていた。

この写真は、1972年にAP通信(Associated Press)のカメラマン、ニック・ウト・コン・フィン(Nick Ut Cong Huynh)氏が撮影したもので、ベトナム戦争を代表する写真の一つと評価され、同氏にピュリツァー賞(Pulitzer Prize)をもたらした。

フェイスブック上での論争は数週間前、ノルウェー人作家のトム・エーゲラン(Tom Egeland)氏が戦争写真に関する投稿で、この写真を使用したことで始まった。フェイスブックは同氏の投稿を直ちに削除。これに反発した人々が次々と同じ写真を投稿したが、フェイスブック側はその度に投稿を削除し続けた。

ニュース上全く話題になっていませんが、この件はAIが絡んでいるのではないかと疑っています

フェイスブックに限らず、ツイッターやユーチューブでポルノ表現についての規制がかかっていますが、その多くは人間が仕分けているのではなく、AIによるものです
肌の露出度が高い写真がはねられた的な話はよく聞きますし、そもそも膨大なツイートや投稿を人間がチェックするのは現実的ではありません。

記事にもあるように、多くの人が反発して次々に同じ写真を投稿したものをその都度削除し続けたというも、機械的に行われているからではないかと思います。

■Microsoftの人工知能も犯した倫理的な間違い

少し古いニュースですが、Microsoftの人工知能が、政治的に間違った意見を述べ始めてMicrosoftが慌てたなんで事件もありました

人工知能 Tayの差別発言をマイクロソフトが謝罪。「脆弱性を突いた組織的攻撃」と説明

公開直後から多数のユーザーを集めて話し相手になるところまでは成功したものの、一部のユーザーが意図的に人種差別や性差別、陰謀論などを吹き込んで喋らせようとしたことから、またそうした言葉や文章を語彙として吸収しそのまま繰り返してしまったことから、「マイクロソフトの人工知能が差別思想に染まった」と問題になり、マイクロソフトは一日で提供停止に追い込まれました。

 

■倫理をAIは越えられるのか

現在は第三次人工知能ブームと呼ばれ、人工知能が一際もてはやされています。
事実写真の仕分けとか、手書き文字の認識とか音声認識とかは長足の進歩を遂げ始めており、30年もたてば人間を人工知能が超えると言われています。

しかし、今回のこの写真の仕分けの判断は、(女性の幼児の裸であっても歴史的な意義のある写真ならばポルノではない)人間ならばできそうですが、人工知能には難しい判断である気がします

倫理観という概念は、果たして大量のデータを学習させるという今の人工知能の発展の様式を越えられるのでしょうか。一連の歴史についての(多くの人が正しいと考える)認識を機械が学習することができるのでしょうか….

人工知能の歴史をWikipediaで読むと、過去に何度となくブームが来ては何かの問題を乗り越えられずにブームが去っていくというのを繰り返しています。

倫理観/歴史観のような抽象的な概念がモデル化できるかが、次のハードルのような気がします。(ちょーーーーシロートの考えですが)

広告

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です