科学者の責務と人工知能
科学者が自らの研究結果の悪用を防ごうという動きは、第二次大戦における「核」による悲劇への反省を機に見られるようになり、ラッセル・アインシュタイン宣言(1995) (英語・日本語) では、将来の世界大戦では核兵器が使用されるという前提の上で、世界大戦によって問題を解決してはならないと警告している。
また、日本においても、今年(2021年)話題になった「日本学術会議」が出している「科学者の行動規範 -改訂版-」を見ると、序文で福島の原発事故が「真に社会からの信頼と負託に応えてきたか」について反省を迫ったとある。そして、最初に「科学者の責務」という項目がある。ここには、「人類の健康と福祉、社会の安全と安寧、そして、地球環境の持続性に貢献するという責任を有する」とあり、自らの能力向上、社会・自然環境との関係の理解と行動とともに、「意図に反する破壊的行為に悪用される可能性(両義性)の認識」「説明と公開」が挙げられている。
研究者自らに両義性の認識をし、実施と成果の公表を適切な手段と方法の選択をするよう求めているところは大きなポイントである。しかし、悪用されないような公表の仕方というのは考え付かないし、研究自体を止めるという選択肢は示されていない。
前の記事で書いた、人工知能に関する AI Open Letter では、病気や貧困の根絶の可能性にも言及し、「人工知能はその潜在的利益は膨大であり (potential benefits are huge)、それを享受するのだ」という姿勢が、滲み出ている。
しかし、ターミネーター(まではないかないが)に近い、自律性を有するようになった人工知能の恐怖は、病気や貧困の根絶といった膨大な利益をも遥かに上回るものである。ここでは、このような時代における「科学者の責務」について書いてみたい。
前述の「核」に対して、「核兵器」という使われ方、そして、さらには、平和的な利用をしていても事故によって膨大な被害を被ることがわかった。ではどうすれば良かったのか? という点について、「戦争をするな」と言っているだけで、後は九日学者、そして、社会に委ねられているように見える。「核」という技術そのものがなかった方が良かったのではないか? という論調は見当たらない。そもそも、「科学技術にブレーキを踏む」という考え方は、「自由」という大義の下にタブー視されてきてきた。前述の「科学者の行動規範」の中でも、社会からの信頼と負託を前提としながらも、「科学の自由の下に真理を探求するという権利を享受する」と謳っている。
しかし、前記事「科学技術の功罪」で述べたように、科学技術を巡る状況は、「リスク」が「利益」を上回ろうとしている。「自己増殖」+「自我を持つ」ことは、一旦一線を超えると、もはや人類が彼らの支配下に置かれる可能性を持つ。そして、
このような状況下で、「科学の自由」を、