
この記事はこちらから音声で聞くことができます。
今回はロボット工学3原則の生みの親、アイザック・アシモフ著の『われはロボット』について語っていきたいと思います。
作品の簡単な紹介
AIとかを語る前に、とりあえず『われはロボット』という作品がどんなものなのかを簡単に紹介します。
まあ、さっき挙げたロボット工学3原則がロボットと人間にどう影響するのか、がこの作品のテーマなわけです。
これがロボット工学3原則だ!
第1条:ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第2条:ロボットは人間に与えられた命令に服従しなければならない。ただし、与えられた命令が、第1条に反する場合は、この限りではない。
第3条:ロボットは、前掲第1条および第2条に反するおそれのない限り、自己を守らなければならない。
『ロボット工学ハンドブック』第56版、西暦2058年
もちろんこの『ロボット工学ハンドブック』は架空の存在です。
で、作品には汎用型人工知能というのかな。人間と対話出来て、自分で状況に応じた判断ができるロボットが登場します。
そして、ロボットは絶対にこの3原則を破ることができません。原則に忠実に動きます。
そりゃそうですよね、何のルールも無しで勝手に判断して動かれたらリアルターミネーターの世界です。
ですが、この3原則を適用することで人間に害をなさないロボットになるわけです。
ただ、完全にルールを決めてしまうと、それはそれで原則が矛盾したり、不適切な特殊な場合にエラーを起こしてしまうと。
世の中、例外が起こるのが常ですからね。
そんな原則が通用しない特殊な状況にロボットが置かれたらどうなるのか、
これを様々な状況で思考実験していくと同時に課題を提示していく。そんな作品です。
汎用型AIの課題
本作は短編集のような形になっていて、それぞれで別の状況が描かれています。
で、前半の章は子守ロボットとか作業用ロボットの話なんですが、後半になってくると人型ロボットあるいは世界を管理する超知性みたいなものが登場します。
現在の"AI"
2020年現在話題になっているAIというのは人工知能とは言いつつも本当の意味での知性は持っていません。
じゃあ「そもそも知性ってなんだよ!」という話になるんですが、これに関して外せないのが数学者のアラン・チューリングです。

彼はイギリス人なんですが、第二次世界大戦中に当時最強の暗号機エニグマを解読した事でも有名です。
まあ、色々とコンピュータの発展に貢献して、人工知能の父とも呼ばれるガチもんの天才です。
そんな天才が「機械は考えることができるか」と悩みまくって、こんなことを提案します。
「人間が会話して機械だって気づかなければ考えてるとみなしたらよくね?」
これがいわゆるチューリングテストというやつです。
簡単に説明すると、AIとチャットをして相手が人間かAIかを答えるというテストです。
現在、このチューリングテストをクリアしたコンピュータ?は1つだけあるんですが、なかなかグレーというか、実験そのものが信憑性に欠けると言われています。とりまノーカン。
確かに、まだSiriと1時間雑談するのは無理があるなと。
この言語を使う能力ともう1つ重要視されているのが、論理的思考能力です。
これに関しては、一部ではもう人間以上かもしれませんね。囲碁、将棋、チェスなど。
画像認識なんかでも、医師が見逃してしまうがんを発見できるまでになっています。
こんな感じで、現在のAIは特定の分野で威力を発揮できるます。
逆に言えば、専門外になると全く手が出ないと。
汎用型AIは難しい
特定の領域に対して高い能力を発揮する現在の特化型AIに対して、人間のように様々な状況で判断ができるAIを汎用型AIと言います。
ドラえもんは汎用型AIです。
汎用型AIは想定外の状況に対して過去のデータを基に分析・判断しなければいけません。
つまり、人間の命令ではなくロボットの意思で行動することになりますね。
行動には責任が伴うものですが、ロボットそれ自体は責任を取れない。まあ、ロボットに人権を認めるなら話は別ですが。
ていうか、ロボットに選挙権を認めたら多数決で絶対に勝てなくね?とか思ったり。
そこでロボットが人間に害をなさないための方法としてアイザック・アシモフはロボット工学3原則を考案したんですね。
つまるところ、汎用型AIを実現するには倫理的な問題として、ロボットの行動を制限する何らかのルールが必要です。
このルールは絶対に書き換えられない必要があります。
その原則をいかにしてAIにプログラムするのかが問題ですね。
ただ、そもそも人間のプログラム無しで考えるのが汎用型AIなんでね。難しいね、技術的に。
まあ、そんな原則に忠実に動くAIが生まれたとしましょう。
ここで問題にしたいのがバタフライエフェクトという現象です。
同じ名前の映画は結構有名だったりするのかな?
あの映画の主題歌のStop Crying Your Heart Outがめっちゃ好きなんですよねー。
話がそれましたね。このバタフライエフェクトは「1匹の蝶の羽ばたきが遠く離れた場所の竜巻の原因になるかもしれない」という比喩から来ています。
まあ、非常に小さな変化の有無によってその後の状態に大きな違いが生まれるカオスをいい感じに表した言葉です。
例えば、いつもは右足から履くところを左足から靴下を履いたことで、靴を履くときに小さな違和感が生まれ、通学途中で靴紐を結びなおし、その時にハトが頭上にふんを落とし、ふんに気を取られたことでバスに乗り遅れそうになり、バスの出発時間が少し遅れたことで信号に引っ掛かり、そこで交通事故に巻き込まれ......
みたいなイメージです。
まあ、なぜこれがAIの話になるのかというと、3原則の第1条「人間に危害を加えてはならない」に関して、ロボットのちょっとした行動が連鎖しまくって人間に危害を与える可能性もあるわけです。
これが人工知能における難問の1つとされているフレーム問題という物です。
可能性なんて無限に存在するので、有限の計算しかできないAIには解決できない、とか言われています。
例えば、「洞窟の中からバッテリーを取ってこい」という命令に対して、
- 洞窟が崩落するかもしれない
- 落とし穴があるかもしれない
- 隠れている何者かに攻撃されるかもしれない
とか色々考えまくって動けなくなる、みたいな。
ロボットが賢くなればなるほど、何もできなくなるかもしれないですね。
シンギュラリティ後の世界
ではシンギュラリティというか未来について語っていきます。
シンギュラリティは技術的特異点とも言われ、AIの知能が人間を超える地点のことです。
人間より賢くなったAIが人間には理解できないスピードでより高性能化していく、とか。
AIが人間より賢くなったと仮定して、それがどんな世界になるんでしょうねー。
まあ、いくつか思いつくものを挙げていきたいと思います。
AIが人間の道具にしかならない未来
この世界では、ロボットが自分で判断して行動できません。
フレーム問題を解決できず、意識を持ったAIも登場しないと仮定します。
今の世界に近い感じですね。特定の状況で物事を判断します。
それでも、何年以内の死亡率が何%かとか、事業が成功する確率が何%かとか、答えが数学的に出せるものに関しては確率として答えられるようになるかもしれません。
なので、ある意味夢を見ることができなくなるでしょうね。
その中で人間の「知らない権利」が生まれるかもしれません。
例えばAIが「ある人が5日以内に心臓病で死ぬ確率が80%ある」という予測をしたとしましょう。その予測を知りたい人もいるとは思います。
ただ「自然の流れに逆らわず、私は何の前触れも無しにポックリ死にたい」という人もいるかもしれません。
「自分の生きがいが否定されるくらいなら知らないままでいたい」と思う人は意外と多いかもしれません。
AIが社会の全てを管理する未来
ロボット工学3原則を完全に守るAIが人間が想像できない程賢くなった場合ですね。
人間の行動パターン、気候変動も全てがAIによって完全に予測されます。
人間はAIに支配されることになり、恐らく理想的な社会主義の世界になるかもしれません。
社会主義と言えば危ないイメージがあるかと思いますが、考え方としては理想的なものですよ。
財産は全部みんなの物で、給料も皆同じ、貧富の格差もなく、皆が幸せな社会です。
実際ソ連や中国が社会主義で色々やりましたが、ソ連は崩壊して中国は市場経済を導入しました。
「別にサボったところで給料は同じなんだから働かなくてもよくね?」となってしまうわけですよ。
それ以外にも、どの仕事をどれくらい国民に課すのかも計画するので、その計画を作るのが困難。
だがしかし!
どの人がどれくらいサボるのかを予測出来たら?
自然災害を予測出来たら?
未来の需要と供給も予測出来たら?
「あれ?これうまくいくんじゃね?」と思ったり。
とまあ、そもそも人間が労働する必要がないかもしれませんしね。
欲しい物はAIが全て与えてくれる。その時人間は何を求めるのでしょうね。
AIが人間と対立する未来
AIの発達で最も懸念されてることですね。
高度な知性と自我を持ったAIが人間を不要であると判断し、人類とAIの戦争が勃発する。
SFなんかによくありそうですよね。
ロボット工学3原則のような、人間に危害を与えないというルールがない場合、もしかしたら現実になるかもしれません。
故スティーブン・ホーキング博士やイーロン・マスクも賢すぎるAIには懸念を表していますしね。
実際、科学の進歩=軍事技術の進歩でもあります。
原子力だって初めは爆弾に使われ、インターネットも元々は軍事技術です。
自分たちの欲望のまま行動する人類はこの世界において最も不要な存在だったりするのかな?
まあ、こんな未来は誰も望んでないわけですけどね。
AIの発展は人類を豊かにするものだと思いますが、そのためにも国際的なルール作りが必要ですね。
AIと人間の区別が無い未来
これが面白い未来で、ロボットが人間臭い世界です。
フレーム問題や3原則をどうプログラムするのかなどの問題を解決するにあたって、人間が子供から大人へ成長するように、ロボットは教育によって常識を学んでいくかもしれません。
「他人に危害を加えてはならない」これって言ってしまえば人間にとっても当たり前のことですよね?
他者との関わりの中で常識を学んでいく、この方法では人に危害を加えるかもしれませんし、そもそも人間の常識は遺伝にも基づいているかもしれません。
しかし、もしロボットも教育によって道徳を獲得できるようになったらどうなるんでしょうね。
考えられる事として
- ロボットに人権が与えられる
- それぞれのロボットが別の個性を持つ
とかがあるのかなー、と思ったり。
他人を見下したり、嫉妬したり、愚痴を言ったりするロボットが当たり前になるかもしれないですね。
ロボットの思考が人間に近づく一方で、人間がサイボーグ化して体が機械に近づいていくことになれば、人間とロボットの差は性格の差ぐらいなるんですかね。
まとめ
というわけで今回は『われはロボット』のテーマであるロボット工学3原則について色々と考えてみました。
未来予想みたいな形になりましたが、ただの妄想です。
人間がAIに支配されることは抵抗を感じますが、もしかしたら既に僕たちはAIに支配されているのかもしれないですね。
気づいていないだけで。