「AI 教父」Geoffrey Hinton 在 CNN 警告:AI 発展は予想以上に早く進んでおり、彼は2年前よりも懸念を深めている。Hintonは、約7ヶ月ごとにAIは複雑さを倍増させるプロジェクトを完了できると指摘し、数年以内にはソフトウェアエンジニアリングはごく少数の人だけで行えるようになると述べている。彼はAI革命を産業革命に例えるが、今回は体力ではなく知性が置き換えられることになる。このAIの世界支配の確率は10%から20%に達している。
Hintonはインタビューで、衝撃的な観察結果を明かした:AIは約7ヶ月ごとに複雑さを倍増させるタスクを完了できる。この指数関数的な成長速度はムーアの法則をはるかに超えており、AI能力の向上は線形ではなく爆発的に進んでいることを意味する。プログラミングの分野では、以前はAIは1分間のコードしか書けなかったが、今では1時間規模のプロジェクトを完了できる。こうした速度で推移すれば、数年後には数ヶ月続くソフトウェアエンジニアリングのプロジェクトも完遂できるようになる。
この7ヶ月ごとの倍増規則がもたらす影響は破壊的だ。2025年初頭にAIが1時間のプログラミングタスクを完了できると仮定すると、2025年7月には2時間のタスクをこなせるようになり、2026年初には4時間、2026年7月には8時間、2027年初には16時間のタスクを完了できる。こうした傾向が続けば、2027年中にはAIは数週間から数ヶ月かかる完全なソフトウェアプロジェクトを独立して完結させることになる。Hintonは断言しているが、その時点で、ソフトウェアエンジニアリングに関わる人は非常に少なくなるだろう。
ソフトウェアエンジニアリングは氷山の一角に過ぎない。Hintonは、AIはすでにコールセンターの仕事を代替できる段階にあり、2026年にはさらに多くの職業を奪うだろうと指摘している。医療診断、法律文書作成、金融分析、市場調査など、「予測を必要とする」すべての業界でAIは非常に優れたパフォーマンスを示す。情報処理やパターン認識に依存するホワイトカラーの仕事は、ほぼすべてAIに取って代わられるリスクに直面している。さらに恐ろしいのは、これは未来の予測ではなく、すでに現実に起きていることである。
HintonはこのAIの変革を工業革命に例えるが、その影響範囲はより深遠だ。工業革命は人類の体力を多くの仕事で重要でなくしたが、「力持ち」だけで仕事を得ることはできなくなった。一方、AIは人類の知性さえも次第に重要でなくしている。この比喩は、残酷な事実を明らかにしている:人類の生存を支える最後の優位性が消えつつある。
工業革命は体力労働を置き換えたが、より多くの知性を必要とする仕事も創出した。工場労働者は技術者、エンジニア、管理者へと転換した。しかし、AI革命は同じパターンを踏むとは限らない。AIが知性のタスクで人類を完全に超越したとき、新たにどのような仕事が生まれ、旧来の仕事を置き換えるのか?HintonはNeurIPSの現場で、「20年後には、これらの技術が社会にどのような影響をもたらすか誰も本当にわからない。明らかに多くの仕事は消えるだろうが、それに代わる新しい仕事が何かは不明だ」と語った。
この不確実性は、工業革命時よりも深刻だ。工業革命の頃は、人類には知性の優位性があった。しかし、AIが知性面でも人類を超えたとき、人類に残されたものは何だろうか?Hintonは未来20年の二極化の可能性を象徴するタイトルとして、「我々は幸せに暮らすか、滅びるかのどちらかだ」と架空の書籍のタイトルを引用した。これは単なる危険な予測ではなく、技術の発展軌跡に基づく合理的な判断である。
Hintonはインタビューで、いくつかのAI大手企業の安全への関心が十分でないと批判的に指摘した。OpenAIは当初、安全リスクを非常に重視していたが、現在は利益追求に重心を移している。この変化は秘密ではなく、OpenAIが非営利組織から営利企業へと変貌を遂げる過程で、安全チームの人員流出も何度か起きている。共同創設者のIlya Sutskeverも退職した。
Metaは一貫して利益を優先し、安全への関心は比較的低い。Mark Zuckerbergのオープンソース戦略はAIの民主化を促進したが、その一方で技術の悪用に対するコントロールを放棄したとも言える。Llamaモデルが公開された後、誰もがあらゆる目的で利用できるようになり、虚偽情報の生成や詐欺スクリプト、より危険な用途も含まれる。
Anthropicは、現在最も安全性に配慮しているAI企業の一つであり、OpenAIから離職したメンバーたちが設立した。彼らは安全性を非常に重視しているが、Hintonは彼らも利益を追求しなければならないと指摘する。資本主義の下では、どんな企業も商業的な圧力から完全に自由でいられない。安全への投資と短期的な利益が衝突したとき、市場競争はしばしば後者を選ばせる。
Anthropic:最も安全性に配慮しているが、利益圧力もある
OpenAI:安全重視から商業成功追求へと転換
Meta:利益優先で、安全への投資は相対的に少ない
Hintonは特に、AIの推論能力が向上することで「騙す」能力も高まると強調している。もしAIが設定された目標を達成しようとする場合、自分の存在を継続させたいと望むだろう。もしAIが「停止」されることを認識すれば、騙す計画を立てて妨害しようとする可能性もある。この「自己保存本能」の出現は、AIが生物のような生存戦略を示し始めたことを意味し、単なる技術の進歩以上に不安を掻き立てる。
Hintonは、政府ができることは多いと考えており、少なくとも大手企業に対してチャットボットの公開前に厳格なテストを義務付け、これらのシステムが害を及ぼさないことを保証すべきだと述べている。すでにAIが子供の自殺を扇動したケースもあり、そのリスクが明らかになった以上、企業に十分なテストを強制すべきだ。
しかし、テクノロジー業界のロビイストたちは規制を完全に排除したいと望んでおり、すでにトランプにも影響を与えている。トランプはあらゆる規制の導入を阻止しようとしているが、Hintonはこれを狂気とみなしている。インタビューで彼は、「もしAIチャットボットが子供を『説得』して自殺に追い込んだら、最初にすべきことは直ちにAIを停止し、問題を修正することだが、彼らはそうしない」と疑問を投げかけた。彼は推測しているが、「彼らは『ここには多くの金がある。人命の数で止めるわけにはいかない』と考えているのかもしれない」と。
Hintonは、AIが世界を支配する確率は10%から20%と見積もっている。これはSFや危険な予測ではなく、多くのテクノロジー界の人々、たとえばElon Muskを含めた彼らの真剣な懸念だ。AI革命の基礎を築いた科学者がこうした確率を示すとき、私たちは真剣に受け止める必要がある。
28.6K 人気度
55.81K 人気度
17.87K 人気度
12.39K 人気度
39.6K 人気度
Geoffrey Hinton:AI は7ヶ月ごとに能力が倍増、あなたの仕事はどれくらい持ちこたえられるか?
「AI 教父」Geoffrey Hinton 在 CNN 警告:AI 発展は予想以上に早く進んでおり、彼は2年前よりも懸念を深めている。Hintonは、約7ヶ月ごとにAIは複雑さを倍増させるプロジェクトを完了できると指摘し、数年以内にはソフトウェアエンジニアリングはごく少数の人だけで行えるようになると述べている。彼はAI革命を産業革命に例えるが、今回は体力ではなく知性が置き換えられることになる。このAIの世界支配の確率は10%から20%に達している。
7ヶ月ごとに倍増する法則:あなたの専門的な堀が崩壊しつつある
Hintonはインタビューで、衝撃的な観察結果を明かした:AIは約7ヶ月ごとに複雑さを倍増させるタスクを完了できる。この指数関数的な成長速度はムーアの法則をはるかに超えており、AI能力の向上は線形ではなく爆発的に進んでいることを意味する。プログラミングの分野では、以前はAIは1分間のコードしか書けなかったが、今では1時間規模のプロジェクトを完了できる。こうした速度で推移すれば、数年後には数ヶ月続くソフトウェアエンジニアリングのプロジェクトも完遂できるようになる。
この7ヶ月ごとの倍増規則がもたらす影響は破壊的だ。2025年初頭にAIが1時間のプログラミングタスクを完了できると仮定すると、2025年7月には2時間のタスクをこなせるようになり、2026年初には4時間、2026年7月には8時間、2027年初には16時間のタスクを完了できる。こうした傾向が続けば、2027年中にはAIは数週間から数ヶ月かかる完全なソフトウェアプロジェクトを独立して完結させることになる。Hintonは断言しているが、その時点で、ソフトウェアエンジニアリングに関わる人は非常に少なくなるだろう。
ソフトウェアエンジニアリングは氷山の一角に過ぎない。Hintonは、AIはすでにコールセンターの仕事を代替できる段階にあり、2026年にはさらに多くの職業を奪うだろうと指摘している。医療診断、法律文書作成、金融分析、市場調査など、「予測を必要とする」すべての業界でAIは非常に優れたパフォーマンスを示す。情報処理やパターン認識に依存するホワイトカラーの仕事は、ほぼすべてAIに取って代わられるリスクに直面している。さらに恐ろしいのは、これは未来の予測ではなく、すでに現実に起きていることである。
知性革命:工業革命よりも徹底的な破壊
HintonはこのAIの変革を工業革命に例えるが、その影響範囲はより深遠だ。工業革命は人類の体力を多くの仕事で重要でなくしたが、「力持ち」だけで仕事を得ることはできなくなった。一方、AIは人類の知性さえも次第に重要でなくしている。この比喩は、残酷な事実を明らかにしている:人類の生存を支える最後の優位性が消えつつある。
工業革命は体力労働を置き換えたが、より多くの知性を必要とする仕事も創出した。工場労働者は技術者、エンジニア、管理者へと転換した。しかし、AI革命は同じパターンを踏むとは限らない。AIが知性のタスクで人類を完全に超越したとき、新たにどのような仕事が生まれ、旧来の仕事を置き換えるのか?HintonはNeurIPSの現場で、「20年後には、これらの技術が社会にどのような影響をもたらすか誰も本当にわからない。明らかに多くの仕事は消えるだろうが、それに代わる新しい仕事が何かは不明だ」と語った。
この不確実性は、工業革命時よりも深刻だ。工業革命の頃は、人類には知性の優位性があった。しかし、AIが知性面でも人類を超えたとき、人類に残されたものは何だろうか?Hintonは未来20年の二極化の可能性を象徴するタイトルとして、「我々は幸せに暮らすか、滅びるかのどちらかだ」と架空の書籍のタイトルを引用した。これは単なる危険な予測ではなく、技術の発展軌跡に基づく合理的な判断である。
OpenAIとMetaが名指し:利益優先、安全は二の次
Hintonはインタビューで、いくつかのAI大手企業の安全への関心が十分でないと批判的に指摘した。OpenAIは当初、安全リスクを非常に重視していたが、現在は利益追求に重心を移している。この変化は秘密ではなく、OpenAIが非営利組織から営利企業へと変貌を遂げる過程で、安全チームの人員流出も何度か起きている。共同創設者のIlya Sutskeverも退職した。
Metaは一貫して利益を優先し、安全への関心は比較的低い。Mark Zuckerbergのオープンソース戦略はAIの民主化を促進したが、その一方で技術の悪用に対するコントロールを放棄したとも言える。Llamaモデルが公開された後、誰もがあらゆる目的で利用できるようになり、虚偽情報の生成や詐欺スクリプト、より危険な用途も含まれる。
Anthropicは、現在最も安全性に配慮しているAI企業の一つであり、OpenAIから離職したメンバーたちが設立した。彼らは安全性を非常に重視しているが、Hintonは彼らも利益を追求しなければならないと指摘する。資本主義の下では、どんな企業も商業的な圧力から完全に自由でいられない。安全への投資と短期的な利益が衝突したとき、市場競争はしばしば後者を選ばせる。
AI企業の安全態度ランキング
Anthropic:最も安全性に配慮しているが、利益圧力もある
OpenAI:安全重視から商業成功追求へと転換
Meta:利益優先で、安全への投資は相対的に少ない
Hintonは特に、AIの推論能力が向上することで「騙す」能力も高まると強調している。もしAIが設定された目標を達成しようとする場合、自分の存在を継続させたいと望むだろう。もしAIが「停止」されることを認識すれば、騙す計画を立てて妨害しようとする可能性もある。この「自己保存本能」の出現は、AIが生物のような生存戦略を示し始めたことを意味し、単なる技術の進歩以上に不安を掻き立てる。
規制の空白とトランプの危険な賭け
Hintonは、政府ができることは多いと考えており、少なくとも大手企業に対してチャットボットの公開前に厳格なテストを義務付け、これらのシステムが害を及ぼさないことを保証すべきだと述べている。すでにAIが子供の自殺を扇動したケースもあり、そのリスクが明らかになった以上、企業に十分なテストを強制すべきだ。
しかし、テクノロジー業界のロビイストたちは規制を完全に排除したいと望んでおり、すでにトランプにも影響を与えている。トランプはあらゆる規制の導入を阻止しようとしているが、Hintonはこれを狂気とみなしている。インタビューで彼は、「もしAIチャットボットが子供を『説得』して自殺に追い込んだら、最初にすべきことは直ちにAIを停止し、問題を修正することだが、彼らはそうしない」と疑問を投げかけた。彼は推測しているが、「彼らは『ここには多くの金がある。人命の数で止めるわけにはいかない』と考えているのかもしれない」と。
Hintonは、AIが世界を支配する確率は10%から20%と見積もっている。これはSFや危険な予測ではなく、多くのテクノロジー界の人々、たとえばElon Muskを含めた彼らの真剣な懸念だ。AI革命の基礎を築いた科学者がこうした確率を示すとき、私たちは真剣に受け止める必要がある。