Người sáng lập AlphaGo: Vòng hạt giống 1,1 tỷ USD tại châu Âu lớn nhất lịch sử, định giá 5,1 tỷ USD

ChainNewsAbmedia

根據 Cooley 律師事務所 4 月 27 日代發新聞稿,倫敦 AI 研究公司 Ineffable Intelligence 完成 11 億美元($1.1B)種子輪融資、投後估值 51 億美元($5.1B),由 Sequoia Capital 與 Lightspeed Venture Partners 共同領投,Google、Nvidia、Index Ventures 等跟投。這是歐洲歷年規模最大的種子輪,也代表 AI 資本市場「不只押 LLM」的新一波投資潮形成。

11 億美元種子輪:歐洲史上最大、估值 51 億美元

Ineffable Intelligence 此次融資直接超越過往歐洲 AI 公司在「種子階段」的所有紀錄。根據 CNBC 同日報導,公司投後估值達 51 億美元($5.1 billion post-money)。投資人結構:

共同領投:Sequoia Capital、Lightspeed Venture Partners

策略型跟投:Google、Nvidia

歐洲基金跟投:Index Ventures

對歐洲 AI 創投生態而言,這筆交易的意義遠超過單一公司—它驗證了「美系一線 VC + 美系科技巨頭 + 歐洲基金」的混合資金結構,可在倫敦完成本應在矽谷才有的種子估值。

創辦人 David Silver:AlphaGo 與 AlphaZero 主要架構師

創辦人 David Silver 是 Google DeepMind 前主任研究員,也是 AlphaGo(2016 年擊敗世界圍棋冠軍李世乭)與 AlphaZero(2017 年自學西洋棋與將棋達到超人類水準)的核心架構師。Silver 同時是強化學習(Reinforcement Learning, RL)領域的主要學術代表人物。

2025 年下半年起,他逐步從 DeepMind 抽離,2026 年第一季正式成立 Ineffable Intelligence。

不走 LLM 路線:用強化學習打造「永續學習超智能」

Ineffable Intelligence 的研究路線與當前主流的大型語言模型(LLM)—包含 OpenAI GPT、Anthropic Claude、Google Gemini—不同。Silver 公開立場是:LLM 倚賴「靜態資料集 + 預訓練」的模式,本質上難以突破訓練資料的天花板;真正的超智能(superintelligence)必須能「從自身經驗持續學習」(continually learning from its own experience)。

公司官方任務描述為「make first contact with superintelligence」(與超智能進行首次接觸),核心方法是 superlearner—一個能透過互動環境發現所有知識的學習代理。技術細節未公開,但從 Silver 過往研究脈絡推估,方法應結合大規模強化學習、自我對弈(self-play)與環境模擬。

為什麼選倫敦:DeepMind 校友圈與英國 AI 政策

選擇倫敦而非矽谷有三個原因:(1)DeepMind 過去 14 年累積的英國 AI 人才圈,許多高階研究員不願移居美國;(2)英國政府 2024-2026 年積極推動「AI Safety Institute」與算力補助,對前沿 AI 公司提供稅務與基礎建設誘因;(3)資料治理與隱私法規相對 EU 主體稍鬆,比德國/法國容易訓練大型模型。

此次融資的時機也耐人尋味—同期 Anthropic 在二級市場估值衝上 1 兆美元(同步主推 Claude Mythos),而 Ineffable Intelligence 用「對立路線」(非 LLM)拿到 51 億美元估值,顯示頂級 VC 開始把「AI 路線多元化」視為風險對沖的必要配置。

影響觀察:歐洲 AI 競爭力、Nvidia 雙押注、Google 戰略

這筆交易對三方有具體含義:

對歐洲 AI 生態而言,11 億美元種子輪是過去十年最具象徵意義的單筆—歐洲不再只是輸出人才到美國,可以在本地組成等級對等的研究團隊。Ineffable Intelligence 若 2-3 年內能交出代表性成果,會帶動更多英國/德國/法國 AI 創業潮。

對 Nvidia 而言,這是其 AI 投資組合中相對少見的「非 LLM 路線」配置—過去 Nvidia 押注的多為 OpenAI、Mistral、CoreWeave 等 LLM/算力相關。投資 Ineffable 等於把雞蛋放到不同籃子裡,避免如果 LLM 撞牆時整體布局被綁死。

對 Google 而言,跟投自家前員工的新公司在矽谷不算罕見,但金額這麼大、且是公開公告(多數類似投資都低調),顯示 Google 對 Silver 路線仍有戰略興趣—可能未來會以收購、技術授權或 Google Cloud 算力合作的方式重新整合。

下一個觀察點:Ineffable Intelligence 的首篇技術 paper 或產品 demo 公開時程。Silver 過去發 paper 的節奏是 12-18 個月一篇大作,預期 2026 年底或 2027 年初會看到第一個對外可驗證的 milestone。

這篇文章 AlphaGo 之父 11 億美元種子輪:歐洲史上最大、估值 51 億美元 最早出現於 鏈新聞 ABMedia。

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Meituan Quietly Launches LongCat-2.0-Preview AI Model With Trillion Parameters, No Official Announcement

Tin tức Gate, ngày 28 tháng 4 — Meituan đã âm thầm triển khai một mô hình AI mới, LongCat-2.0-Preview, trên nền tảng LongCat API của mình kèm theo nhật ký cập nhật ghi ngày 20 tháng 4, nhưng chưa đưa ra bất kỳ thông báo chính thức nào hay báo cáo kỹ thuật. Không giống như các mô hình trước đó trong series LongCat Flash-Chat, Flash-Thinking, Flash-Lite, Flash-Omni, Next, vốn được phát hành kèm các bài blog chính thức, báo cáo kỹ thuật và bản phát hành mã nguồn mở trên Hugging Face và GitHub, phiên bản 2.0-Preview không cung cấp bất kỳ liên kết mã nguồn mở nào và chỉ có sẵn thông qua API. Nhật ký cập nhật của mô hình nhấn mạnh ba năng lực cốt lõi: phát triển tác nhân với hỗ trợ bản địa cho việc gọi công cụ, suy luận nhiều bước, và các tác vụ xử lý ngữ cảnh dài; thành thạo tạo mã, tự động hóa quy trình, và thực thi các chỉ dẫn phức tạp; đồng thời tích hợp sâu với Claude Code, OpenClaw, OpenCode và Kilo Code. Theo các báo cáo từ nhiều kênh truyền thông dẫn nguồn ngày 24 tháng 4, tổng số tham số của mô hình vượt một nghìn tỷ, sử dụng kiến trúc MoE Mixture of Experts, và hỗ trợ cửa sổ ngữ cảnh 1 triệu token—có quy mô tương đương với DeepSeek V4, cũng được phát hành vào chính ngày hôm đó. Người trong cuộc tiết lộ rằng LongCat-2.0-Preview được huấn luyện hoàn toàn trên các cụm máy tính trong nước, sử dụng từ 50.000 đến 60.000 thẻ tăng tốc do Trung Quốc sản xuất, đánh dấu nhiệm vụ huấn luyện quy mô lớn nhất được hoàn thành trên hạ tầng AI trong nước cho đến nay. Trong giai đoạn thử nghiệm, mô hình cung cấp hạn mức dùng miễn phí hằng ngày là 10 triệu token.

GateNews42phút trước

Kimi K2.6 Đứng Đầu Bảng Xếp Hạng LLM của OpenRouter Trong Tuần Đầu, Lượt Sử Dụng Tăng 7.683%

Tin tức cổng, ngày 28 tháng 4 — Kimi K2.6, mô hình chủ lực từ Moonshot AI, đã vươn lên vị trí đầu bảng trong bảng xếp hạng LLM hằng tuần của OpenRouter với 1,88 nghìn tỷ token đã tiêu thụ, tăng vọt 7.683% so với tuần trước. Mô hình, được ra mắt trên OpenRouter vào ngày 20 tháng 4, đã vượt qua Claude Sonnet 4.6 (1.35T, -3%) và DeepSeek

GateNews53phút trước

Sau khi ChatGPT xuất hiện, lượng bài nộp tạp chí quản trị học tăng 42%: AI đẩy học thuật theo hướng “nhiều” chứ không phải “tốt”

Bài xã luận cho biết kể từ khi ChatGPT ra mắt, lượng bài đăng đã tăng 42%, và nhân sự của ban biên tập cũng được bổ sung đáng kể. AI đã gây ra một làn sóng bài viết kém chất lượng, khiến khối lượng thẩm định tăng gấp đôi, và áp lực cho khâu sàng lọc ban đầu vẫn còn hiện hữu. Mollick chỉ ra rằng vấn đề nằm ở cơ chế khuyến khích vốn thiên về “nhiều hơn” thay vì “tốt hơn”; cần có các cơ chế hướng tới chất lượng và các quy trình nghiên cứu có thể truy vết để nâng cao độ tin cậy, đồng thời cảnh báo rằng các lĩnh vực khác đòi hỏi con người thẩm duyệt cũng đang phải đối mặt với những thách thức tương tự.

ChainNewsAbmedia1giờ trước

DeepMind × Hàn Quốc MOU: Ngôi trường AI ngoài nước đầu tiên, Hassabis tự tay ký

Giám đốc điều hành của DeepMind, Hassabis, trực tiếp đến Seoul để ký kết MOU với chính phủ Hàn Quốc nhằm đẩy nhanh nghiên cứu khoa học đời sống, nghiên cứu khí hậu và phát hiện khoa học bằng AI. Trọng tâm là thiết lập Cơ sở AI ở nước ngoài tại Google Seoul, cung cấp quyền truy cập mô hình và tạo điều kiện cho trao đổi giữa các nhà nghiên cứu, đồng thời khởi động vào năm 2026 một trung tâm nghiên cứu khoa học AI cấp quốc gia, tập trung vào khoa học đời sống, khí hậu và khoa học cơ bản; đồng thời hợp tác với các doanh nghiệp như Samsung, SK Hynix, Hyundai Motor, LG Electronics, v.v., cho thấy năng lực cạnh tranh và mức độ ảnh hưởng toàn cầu của Hàn Quốc trong lĩnh vực AI và chất bán dẫn.

ChainNewsAbmedia1giờ trước

Google Thử Nghiệm Tính Năng Tìm Kiếm Chatbot "Ask YouTube" Dựa Trên AI

Tin tức Cổng, ngày 28 tháng 4 — Google đang thử nghiệm một tính năng thử nghiệm sử dụng AI có tên "Ask YouTube" cho phép người dùng tìm kiếm nội dung video bằng các truy vấn ngôn ngữ tự nhiên. Hiện tính năng này chỉ có sẵn cho người dùng từ 18 tuổi trở lên tại Hoa Kỳ có YouTube Premium

GateNews1giờ trước

Nanya sẽ cung cấp bộ nhớ LPDDR5X cho nền tảng AI Vera Rubin của Nvidia

Tin Cổng, ngày 28 tháng 4 — Hãng sản xuất chip nhớ của Đài Loan Nanya Technology sẽ cung cấp DRAM LPDDR5X tiêu thụ điện thấp cho nền tảng AI thế hệ tiếp theo Vera Rubin của Nvidia, sử dụng định dạng mô-đun bộ nhớ SOCAMM2. Nvidia đang bổ sung Nanya như một nhà cung cấp dự phòng bên cạnh Samsung Electronics và SK Hynix để giảm rủi ro nguồn cung và cải thiện đòn bẩy về giá, đồng thời giảm rủi ro nguồn cung và cải thiện đòn bẩy về giá.

GateNews1giờ trước
Bình luận
0/400
Không có bình luận