技術的な懐疑論
AIの父と呼ばれる研究者たちの見解
ヤン・ルカン教授(メタAI主任)は、AIが世界を征服することも仕事を永久に破壊することもないと主張し、AIの脅威論を「まったくばかげている」と述べています[5]。
研究者からの警告
アンドリュー・ン氏(Google Brain共同設立者)は、現在のAI技術がまだ基本的な課題を抱えており、シンギュラリティのような極端な進化は現実的ではないと指摘しています[1]。
リソースの制約
AIの開発には以下のような制約があります:
- 膨大な学習データの枯渇問題
- トレーニングに必要な資源の限界
- 環境問題への配慮の必要性[7]
社会的な懸念
権力の集中問題
元グーグル研究者のメレディス・ウィッタカー氏は、AIは資本と権力を集中させるツールとなり、すでに優位な立場にある人々がそうでない人々に不利な形で使用する可能性を指摘しています[9]。
規制の必要性
ニューヨーク大学のゲイリー・マーカス名誉教授は、「今、AIについては規制基準があまりなく、取り締まりが必要だ」と主張しています[10]。
経済的リスク
- 巨大な投資による経済的負担の増加
- 電力やGPUへの需要急増
- 大規模な失業の可能性[7]
これらの意見は、AIの発展に対して慎重なアプローチを取る必要性を示唆しており、技術の進歩と社会への影響のバランスを考慮することの重要性を強調しています。
情報源
[1] AIが人間を超える日:シンギュラリティとは? – SREホールディングス https://ac.sre-group.co.jp/blog/ai-singularity
[2] サム・アルトマンのAGIに関する発言は、あなたが思っている以上に … https://note.com/kind_crocus236/n/n8882e960f419
[3] ジワジワ迫る2045年問題。著名人の見解を整理してみた! | AIZINE … https://otafuku-lab.co/aizine/2045problem-1017/
[4] AGI(汎用人工知能)とは?AIやChatGPTとの関係性・社会的課題 https://www.brainpad.co.jp/doors/contents/about_agi/
[5] 「AIは仕事を永久には破壊しない」……「AIの父」ルカン教授が主張 https://www.bbc.com/japanese/65917044
[6] 人工知能(AI)に関する安全保障理事会公開討論におけるアントニオ … https://www.unic.or.jp/news_press/messages_speeches/sg/48543/
[7] 人間レベルの知能を持つ「AGI」は3年後? 元OpenAI研究員の警告が … https://www.itmedia.co.jp/aiplus/articles/2406/28/news080_3.html
[8] ベールに包まれた 世界最高峰の頭脳集団 「オープンAI」の正体 https://www.technologyreview.jp/s/188883/the-messy-secretive-reality-behind-openais-bid-to-save-the-world/
[9] 元グーグル研究者が懸念するChatGPTの社会リスクとは?Signal … https://xtech.nikkei.com/atcl/nxt/column/18/00677/040300132/
[10] ビジネス特集 SFの世界がやってくる?“神のようなAI”が生まれる日 https://www3.nhk.or.jp/news/html/20231017/k10014227021000.html