書籍情報、店舗案内、神父や修道士のコラムなど。

会員たちのコラム

「G7サミットでの教皇フランシスコの講演を受けて」総長からのメッセージ

 親愛なる兄弟たちへ

 2024年6月14日にイタリアで行われたG7サミットでの教皇フランシスコの講演を受けて、私たちの使命には新たな言語と実存的な文脈において多くの新しい機会があることを改めて認識しました。

 これらの挑戦は無視することができず、私たちがまだ歩むべき道が多いことを自覚しています。特に、教皇フランシスコは「いわゆる生成的人工知能は本当に『生成的』ではありません。むしろ、大量のデータを検索し、それを求められたスタイルでまとめます。

 それは新しい分析や概念を発展させるのではなく、既存のものを再構築し、魅力的な形にして提示します。そして、繰り返し見つかる概念や仮説を正当で有効だとみなします。『生成的』であるよりもむしろ、『強化的』であり、既存の内容を再配置します」と強調しました。

 私たちはこの疑念を無視することはできませんが、私たちの生活が「生成的」であり、「強化的」ではないことも事実です。私たち一人ひとりが善い、真実のコミュニケーションを生み出し、キリストの生きた証しとして絶えずオリジナルであることができます。

 友愛のうちに

総長 ドメニコ・ソリマン神父

人工知能に関するG7セッションにて
[2024年6月13日~15日]
教皇フランシスコの挨拶

 私は本日、G7政府間フォーラムのリーダーの皆様に、人工知能が人類の未来に与える影響についてお話しさせていただきます。
 「聖書は、神が人間に『あらゆる工芸品に関する技術と理解と知識』を与えたと証言しています(出エジプト記35:31)」。したがって、科学と技術は人間の創造的潜在能力の素晴らしい成果です。
 実際、人工知能はまさにこの神から与えられた創造的潜在能力の活用から生まれました。
ご存知の通り、人工知能は極めて強力なツールであり、医療から労働、文化からコミュニケーション、教育から政治に至るまで、人間の活動のさまざまな場面で使用されています。その利用が、私たちの生活様式や社会関係、さらには人間としてのアイデンティティの捉え方にまで影響を及ぼすようになることは確実です。
 しかし、人工知能の問題はしばしば曖昧に感じられます。一方では、人工知能がもたらす可能性に対する期待が高まり、他方では、その影響に対する不安が生じています。この点について、程度の差はあれ、私たちは皆、二つの感情を経験しています。人工知能がもたらす進歩に興奮すると同時に、その使用に伴う危険性を認識して不安になるのです。
 結局のところ、人工知能の出現は真の認知産業革命であり、複雑な時代的変革を特徴とする新しい社会システムの構築に寄与することは疑いの余地がありません。例えば、人工知能は知識へのアクセスを民主化し、科学的研究を飛躍的に進展させ、困難で過酷な仕事を機械に任せる可能性をもたらします。しかし同時に、先進国と開発途上国、支配階級と被抑圧階級の間の格差を拡大し、「出会いの文化」よりも「使い捨て文化」が好まれる危険性もあります。
 こうした複雑な変化の意義は、人工知能の急速な技術開発そのものと密接に関連しています。
 まさにこの強力な技術的進歩こそが、人工知能を同時に刺激的で恐ろしいツールとし、それが提示する課題にふさわしい考察を要求しています。
 この点について、人工知能はまず何よりもツールであるという認識から始めることができるかもしれません。そして、それがもたらす利益や害は、その使用方法によって決まることは言うまでもありません。
 これは確かにその通りです。有史以来、人間が作り出してきたあらゆる道具がそうであったように。
 生物界では類を見ないほどの量と複雑さを持つ道具を作り出すことができることは、人間の技術的な状態を示しています。つまり、人間は常に、徐々に作り出してきた道具を媒介として環境と関わりを持ってきたのです。人類と文明の歴史を、これらの道具の歴史から切り離すことはできません。このことから、人間には何らかの欠陥や不足があり、そのせいで技術を生み出さざるを得なかったと考える人もいます。しかし実際には、慎重かつ客観的に見ると、その逆が分かります。私たちは生物としての存在に対して「外向き」の状態を経験しており、外側にあるものに向かっていく傾向があり、根本的に外の世界に対して開かれています。他者や神に対する私たちの開放性はこの現実から生まれており、文化や美に対する知性の創造的潜在力も同様です。究極的には、私たちの技術的能力もこの事実から生じています。したがって、技術は未来への志向の表れなのです。
 しかし、道具の使用が常に善のみに向けられているわけではありません。たとえ人類が、兄弟姉妹や共通の故郷のために役立つ善の道具としての知識を求める声を心の中で感じていたとしても、それが常に実現するとは限りません。人類はその根源的な自由ゆえに、しばしば存在の目的を損ない、自分自身や地球の敵となってしまうことがあります。同じ運命は技術ツールにも待ち受けています。人類に奉仕するというツールの本来の目的が確保されて初めて、ツールは人間一人ひとりの独特な偉大さと尊厳だけでなく、地球とそのすべての住民を「耕し、守る」という使命も明らかにするのです。テクノロジーについて語ることは、人間であることの意義について語ることであり、自由と責任の両方を兼ね備えた存在としての私たちの特別な地位について語ることです。これは倫理について語ることを意味します。
 実際、私たちの祖先は火打石を研いでナイフを作り、そのナイフで衣服の皮を剥ぐだけでなく、互いに殺し合いました。これは、太陽内部で起きている原子核融合によって生み出されるエネルギーのような、より高度な技術についても同じことが言えます。このエネルギーは、クリーンで再生可能なエネルギーを生み出すために利用することもできれば、地球を灰の山に変えてしまうこともできます。
 しかし、人工知能はさらに複雑なツールです。これは類のないツールであると言っても過言ではありません。単純な道具(ナイフなど)の使用は、使用する人の管理下にあり、その道具を良い目的に使用するのはその人次第です。一方、人工知能は、与えられたタスクに自律的に適応し、そのように設計されていれば、意図された目的を達成するために、人とは無関係に選択を行うことができます。
 機械が、新しい方法によって、アルゴリズム的な選択を行う可能性があることを常に念頭に置いておく必要があります。機械は、明確に定義された基準または統計的推論に基づいて、いくつかの可能性の中から技術的な選択を行います。しかし、人間は選択するだけでなく、心の中で決定を下すことができます。決定とは、選択のより戦略的な要素であり、実践的な評価を必要とします。時に、しばしば統治という困難な仕事の中で、私たちは多くの人々に影響のある決断を迫られます。この点において、人間の熟考は常に知恵、ギリシャ哲学のフロネーシス、そして少なくとも部分的には聖書の知恵について語ってきました。機械の驚異に直面し、機械が自ら選択する方法を知っているかのように見えるとき、私たちは意思決定が、たとえそれが時に劇的かつ緊急な側面を伴ったとしても、常に人間自身に委ねられるべきであることを明確に理解すべきです。もし機械の選択に依存することを運命づけ、人々から自分自身や人生に関する意思決定の能力を奪うのであれば、私たちは人類に希望のない未来を宣告することになります。私たちは、人工知能プログラムが選択を行う際に人間が適切にコントロールできる空間を確保し、保護する必要があります。人間の尊厳そのものがそれに依存しているからです。
 まさにこの点について、私は主張したいと思います。武力紛争という悲劇を踏まえ、いわゆる「殺人ロボット」のような装置の開発と使用について再考し、最終的にはその使用を禁止することが急務です。そのためには、より適切で効果的な人間の管理を導入するという具体的な取り組みから始める必要があります。いかなる機械も、人間の命を奪う選択をしてはなりません。
 さらに付け加えるべきことは、少なくとも高度な人工知能の正しい利用は、設計時にその目的を定義した利用者やプログラマーの完全な管理下には置かれないということです。近い将来、人工知能プログラム同士が直接通信し、性能を向上させることができる可能性が高いため、これはなおさら真実です。そして、かつて単純な道具を発明した男や女たちが、その道具によって自分たちの生活が形作られていたのを見たように(例えば、ナイフは寒さをしのぐだけでなく、戦争の技術を向上させることにもつながりました)、人間が複雑な道具を発明した今、自分たちの生活が道具によって形作られることは、以前にも増して明らかです。

人工知能の基本的な仕組み

 ここで、人工知能の複雑性について簡単に触れておきたいと思います。基本的に、人工知能とは問題解決のために設計されたツールです。これは、データカテゴリーに対して行われる代数演算の論理的連鎖によって機能します。これらのデータは相関関係を明らかにするために比較され、それによって統計的価値が向上します。これは、さらなるデータの探索と計算プロセスの自己修正に基づく自己学習プロセスによって実現されます。
 人工知能はこのように特定の問題を解決するために設計されています。しかし、それを使用する人々にとっては、人工知能が提示する特定の解決策から、一般的な、あるいは人類学的な結論を引き出したいという誘惑に駆られることがよくあります。
 その重要な例として、刑期を終えた受刑者に自宅軟禁を認めるかどうかを決定する際に裁判官を支援するために開発されたプログラムの使用が挙げられます。この場合、人工知能は、受刑者が再び同じ犯罪を犯す可能性を予測するように求められます。これは、あらかじめ設定されたカテゴリー(犯罪の種類、刑務所内での行動、心理評価など)に基づいて行われるため、人工知能は囚人の私生活に関するデータカテゴリー(民族、学歴、信用度など)にアクセスすることができます。このような方法論を使用すると、ある人物の将来に関する最終的な決定を機械に事実上委ねる危険性があります。また、人工知能が使用するデータカテゴリーに内在する偏見が暗黙のうちに組み込まれる可能性があります。
 ある特定の民族グループに属することや、単に数年前に軽犯罪を犯したこと(例えば、駐車違反の罰金を支払わなかったこと)が、自宅軟禁を認めるかどうかの判断に影響を与えることになります。しかし、実際には人間は常に成長しており、その行動によって私たちを驚かせることがあります。これは、機械が考慮することのできないことです。
 また、私が今述べたようなアプリケーションの利用は、人工知能プログラムが人間と直接対話(チャットボット)し、会話を交わし、親密な関係を築く能力を備えることがますます増えるため、今後ますます頻繁に行われるようになることも留意すべきです。これらの人工知能プログラムは、人間の身体的および心理的なニーズに個別的に対応する方法を学習するように設計されているため、これらのやり取りは多くの場合、快適で安心できるものになる可能性があります。
 人工知能は人間ではないため、一般的な原則を提案することはできないということを忘れてしまうのは、よくある重大な間違いです。この間違いが生じるのは、人間が安定した形の仲間を求めているという深い欲求からなのか、あるいは、計算機による観測は疑いようのない確実性と疑いようのない普遍性を備えているという無意識の思い込みからなのか、どちらかでしょう。
 しかし、この仮定は、計算そのものの本質的な限界を考察すれば分かるように、無理があるものです。 人工知能は、論理的な順序で実行される代数演算を使用します(例えば、Xの値がYの値よりも大きい場合はXにYを掛け、そうでない場合はXをYで割ります)。この計算方法、いわゆる「アルゴリズム」は、客観的でも中立的でもありません。さらに、代数学に基づいているため、数値で形式化された現実のみを検証することができます。
 非常に複雑な問題を解決するために設計されたアルゴリズムは高度に洗練されているため、プログラマー自身がその結果を正確に理解することは困難です。この洗練化の傾向は、二進回路(半導体やマイクロチップ)ではなく、量子物理学の非常に複雑な法則に従って動作する量子コンピュータの導入により、大幅に加速する可能性があります。実際、高性能マイクロチップの継続的な導入は、すでに人工知能を駆使する少数の国々にとって、その優位性を支える理由の一つとなっています。
 人工知能プログラムが提供する答えの質は、最終的に使用するデータとその構造によって決まります。
 最後に、いわゆる生成型人工知能の仕組みの複雑さがはっきりと表れるもう一つの分野について述べたいと思います。今日では、知識にアクセスするための素晴らしいツールが存在し、さまざまな分野で自己学習や自己指導さえ可能だということを疑う人はいません。テーマや主題を問わず、文章作成や画像作成のためのオンラインアプリケーションが簡単に利用できることに感銘を受けた人も多いでしょう。特に学生はこれに魅了されますが、論文を作成しなければならないときには不均衡なほどこれを利用します。
 学生は教師よりも人工知能の利用についてよく準備しており、より精通していることが多いのです。しかし、厳密に言えば、いわゆる生成型人工知能は実際には「生成型」ではないということを忘れています。その代わりに、ビッグデータを検索して必要な情報を集め、それを要求されたスタイルでまとめます。新しい分析や概念を生み出すのではなく、見つけたものを魅力的な形にまとめ直すのです。そして、繰り返される概念や仮説を見つけるほど、それを正当で有効なものとして認識するようになります。つまり、既存のコンテンツを再編成し、それを強化するという意味で、「生成的」というよりもむしろ「補強的」なのです。
 このように、フェイクニュースを正当化し、支配的な文化の優位性を強化するリスクがあるだけでなく、要するに、教育プロセスそのものを損なう可能性もあります。教育は、学生に本物の考察の機会を提供すべきですが、概念の繰り返しに還元されるリスクがあり、その概念が常に繰り返されるという理由だけで、ますます異論の余地のないものとして評価される可能性があります。

倫理的提案を共有するという観点から、人間の尊厳を再び中心に据えること

 すでに述べたことに、さらに一般的な観察を付け加えたいと思います。現在、私たちは技術革新の時代に生きていますが、社会生活に関する主要な問題について合意を得るのがますます難しくなっているという、前例のない特殊な社会状況も伴っています。ある程度の文化的連続性を特徴とする社会においても、激しい議論や論争がしばしば起こり、何が善であり正義であるかを模索するための共通の考察や政治的解決策を生み出すことが難しくなっています。このように、人類社会における正当な見解の複雑さとは別に、上記の社会状況を特徴づけると思われる要因も浮上しています。それは、人間らしさの感覚の喪失、あるいは少なくともその衰退、そして人間としての尊厳という概念の意義の低下です。実際、私たちは西洋の基本概念のひとつである人間という概念の価値と深い意味を失いつつあるようです。このように、人工知能プログラムが人間とその行動を分析する時代において、まさに人間の人格と尊厳の理解に関する倫理観こそが、これらのシステムの実施と発展において最も危険にさらされているのです。 実際、私たちは、いかなる革新も中立的なものではないことを忘れてはなりません。テクノロジーは特定の目的を持って誕生し、人間社会に影響を与える際には、常に社会関係における秩序や権力の配置を意味します。つまり、ある人々に特定の行動を取らせ、他の人々には異なる行動を取らせないようにするのです。テクノロジーの持つこの構成的な力という側面は、多かれ少なかれ明白な形で、常にそれを発明し発展させた人々の世界観を反映しています。
 これは人工知能プログラムにも当てはまります。人工知能プログラムが、より良い明日を築くための道具となるためには、常にすべての人間の利益を目指さなければなりません。それには倫理的な「インスピレーション」が必要です。
 さらに、倫理的な意思決定とは、行動の結果だけでなく、その行動によって生じる価値やそこから派生する義務を考慮したものです。だからこそ私は、2020年にローマで「AI倫理のローマ宣言」が署名されたこと、そして私が「アルゴリズム倫理」と呼ぶ、アルゴリズムや人工知能プログラムに倫理的な節度を持たせることを支持したことを歓迎しました。多様性とグローバル化が進む現代社会では、価値観の尺度において異なる感受性や複数の階層が存在するため、単一の価値観の階層を見つけることは困難に思えるかもしれません。しかし、倫理的分析においては、他の種類のツールも活用できます。単一のグローバルな価値観を定義することに苦労する場合でも、生き方に関するジレンマや葛藤に対処し解決するための共有原則を見つけることは可能です。
 これが、ローマ宣言が生まれた理由です。アルゴリズム倫理という用語で、一連の原則が、この発展の鍵を握る文化、宗教、国際機関、大手企業からの支持を得ることのできる、グローバルかつ多元的なプラットフォームに凝縮されています。

必要な政治

 したがって、人工知能が、私たちの世界観を数値で表現でき、あらかじめ決められたカテゴリーに収まる現実に限定し、他の真実の貢献を排除し、人類学、社会経済、文化の画一的なモデルを押し付けるという、その根本的な設計に内在する具体的なリスクを隠蔽することはできません。人工知能に具現化された技術パラダイムは、私がすでに「技術支配パラダイム」として特定している、はるかに危険なパラダイムになる危険性があります。人工知能のような強力かつ不可欠なツールがこのようなパラダイムを強化することを許すことはできません。むしろ、人工知能をその拡大に対する防波堤にしなければなりません。
 まさにここで、政治的な行動が緊急に必要とされているのです。回勅『兄弟の皆さん』は、「今日、多くの人々にとって政治は嫌悪すべき言葉であり、それはしばしば一部の政治家の過ち、腐敗、非効率が原因である」と私たちに思い出させてくれます。政治を信用できないように仕向け、経済に置き換えようとしたり、あるイデオロギーにねじ曲げようとする試みもあります。しかし、政治抜きで世界は機能するのでしょうか?健全な政治生活がなければ、普遍的な兄弟愛と社会平和に向けた効果的な成長プロセスはあり得ますか?これらの質問に対する私たちの答えは「ノー!」です。政治は必要です!私は今ここで、「目先の利益に焦点を当てた多くの小手先の政治に直面して[…]、『真の政治手腕とは、困難な時代において、高い理念を堅持し、長期的な公益を考えるときに発揮される。政治権力は、国家建設の任務においてこの義務を果たすことは容易ではありません」(『ラウダート・シ』178)。ましてや、現在および未来の人類社会のための共通プロジェクトを打ち立てることは、なおさら容易なことではありません」と再度強調したいと思います。

尊敬する皆様!

 人工知能が人類に与える影響について考察した結果、私たちは希望と自信を持って未来を見据えることができるよう、「健全な政治」の重要性を考えるに至りました。以前にも「グローバル社会は、部分的な解決策や即席の対策では解決できない深刻な構造的欠陥に苦しんでいる。抜本的な改革と大規模な刷新を通じて、多くのことを変える必要がある。このプロセスを監督できるのは、最も多様な分野とスキルが関与する健全な政治だけである。共通善を目指す政治、社会、文化、大衆プログラムに不可欠な経済は、人間の創造性と進歩の理想を阻害することなく、そのエネルギーを新たなチャンネルに導くような、異なる可能性への道を開く可能性があります」(『ラウダート・シ』191)。
 これはまさに人工知能の状況です。人工知能をうまく活用するのは私たち一人ひとりの責任ですが、そのような活用を可能にし、実りあるものにする条件を整える責任は政治にあります。
 ありがとうございました。

RANKING

DAILY
WEEKLY
MONTHLY
  1. 1
  2. 2
  3. 3
  1. 1
  2. 2
  3. 3
  1. 1
  2. 2
  3. 3

RECOMMEND

RELATED

PAGE TOP