AI同士は協力するか競争するか Google DeepMind、AIにゲームをプレイさせて研究
学習やルール変更による行動の変化を見られるメリットがあるそうです。
Google傘下のDeepMindが、社会科学研究に人工知能を応用した論文を発表しました。深層学習(ディープ・ラーニング)でゲームの攻略法を学ぶ人工知能「DQN」(関連記事)や、囲碁のトップ棋士を破り話題になった「AlphaGo」(関連記事)などで知られる同社。今回はAIにゲームをさせて、「囚人のジレンマ」に代表される社会的ジレンマの実験に活用しています。
社会的ジレンマとは、個人の合理的な行動が社会全体にとって合理的ではない状況のこと。例えば、「囚人のジレンマ」は共犯者2人が協力、裏切りの2択を迫られる単純なゲームのような形式で表現されていますが、今回の論文は、より現実に即したアプローチとして「sequential social dilemmas(連続的な社会的ジレンマ)」を提唱。個人間で利害関係が発生する状況をゲーム化している点は従来の方法に似ていますが、そのプレイヤーに人工知能を使って、実際にシミュレーションするのが大きく違うところです。
実験では性能差のある人工知能2種を使い、ビームで一時的に相手をフィールドから除外できるルールのもと、得点になるりんごを取り合う「Gathering」を繰り返しプレイ。りんごが十分あるうちは共存していたものの、少なくなると別のプレイヤーを攻撃するようになったといいます。また、設定が違う場合にプレイヤーの動きがどう変わるのかも調べており、りんごが豊富に出現する「パラダイスのような設定」では他のプレイヤーに攻撃しなくなります。他人と利益を奪い合うようなルールだとしても、それが気にならないくらい資源があれば、ビームを撃つ必要はないというわけです。
一方、獲物を捕まえたプレイヤー、協力したプレイヤーがともに得点できるゲーム「Wolfpack」(他人の獲物を狙うハゲタカのような生物がおり、1人きりだと奪われてしまうという状況をイメージしたルール)では、人工知能は協調的な戦略を学習。このようにルールに合わせて行動を最適化する傾向は、性能の高い人工知能のほうが強かったといいます。
論文によれば、「sequential social dilemmas」は経済や交通、環境問題における人間の行動理解、コントロールに役立つとのこと。この手の実証実験を大規模に行おうとすると被験者を集めるのに苦労しそうですし、いくらでも動いてくれる人工知能はなかなか便利なのかもしれません。
(マッハ・キショ松)
関連記事
“勝手にゲームが上手くなる人工知能”をグーグルが開発 どんどん賢くなってます
話題の深層学習(ディープラーニング)の成果だとか。謎の囲碁棋士「Master」の正体は「AlphaGo」 Googleが発表
年末年始にかけてネット上で非公式テストを行っていた。なぜこの絵で分かるんだ! Googleが「急いで描いた落書きを人工知能に当てさせるゲーム」を公開
手書き文字認識技術を応用。適当に描いた絵でも、ちゃんと推測してくれます。モザイクのような状態から再現 Google、元画像を推測して高解像度化する技術を開発
どんな風に実用化できるのか、想像力がふくらみますな。学習型AI、全自動運転で「マリオカート64」のルイージサーキットを完全走破 エンジニアが冬休みを使い実験
AIがマリカー界に進出。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.