Khi một nhà nghiên cứu đối mặt với biến cố bất ngờ vào thời điểm quan trọng trong sự nghiệp, họ sẽ học được gì?
Bước ngoặt nghề nghiệp vào đầu năm 2025 đã cho Tian Yuandong cơ hội nhìn nhận lựa chọn của mình qua một khung quyết định kinh điển. Khi được mời tham gia dự án lớn “Ứng cứu”, nhà khoa học AI lâu năm nghiên cứu về học tăng cường đã vẽ sẵn một ma trận 2x2, liệt kê bốn khả năng kết quả. Nhưng thực tế đã mang đến cho anh một kết quả thứ năm — vượt xa dự đoán ban đầu.
Sự bất ngờ này giúp anh có cái nhìn sâu sắc hơn về tính phức tạp của xã hội. Tuy nhiên, trong vài tháng làm việc đó, nhóm đã đạt được bước đột phá trong các vấn đề cốt lõi của học tăng cường: ổn định huấn luyện, tương tác giữa huấn luyện và suy luận, thiết kế kiến trúc mô hình, sự phối hợp giữa huấn luyện trước và huấn luyện trung gian, thuật toán suy luận chuỗi dài, phương pháp tạo dữ liệu, thiết kế khung sau huấn luyện, v.v. Những thành tựu này đã mang lại một sự chuyển đổi mô hình quan trọng cho hướng nghiên cứu sau này của anh.
Tian Yuandong thừa nhận, quyết định rời khỏi các công ty lớn thực ra đã ấp ủ từ nhiều năm. Trong hơn một thập kỷ sự nghiệp, anh đã nhiều lần nghĩ đến việc nghỉ việc — cuối năm 2023 còn suýt nữa hành động, nhưng các yếu tố kinh tế và gia đình khiến anh nhiều lần thay đổi ý định. Gần đây, anh còn đùa rằng lời nói và hành xử của mình giống như đang “gợi ý” công ty nên để anh nghỉ việc. Lần này, cuối cùng anh đã “được giúp đỡ” để đưa ra quyết định.
Điều thú vị là, hành trình “ngược xuôi” này lại trở thành nguồn dưỡng chất sáng tạo của anh. Như câu tục ngữ cổ: “Nếu con đường quan trường không thông, thi nhân sẽ có lợi; cuộc đời phong phú, câu thơ càng sâu sắc.” Một cuộc đời quá trôi chảy, lại thiếu đi sức sống vốn có của cuộc sống.
Anh còn nhớ đầu năm 2021, vì viết vài dòng phản ánh về lý do “bài báo không được chấp nhận” trong tổng kết năm, mà đã nhận được phản hồi không mấy thân thiện. Nhưng anh chọn im lặng, thậm chí giả vờ vừa được thăng chức trước đám đông. Sáu tháng sau, chiến lược đó đã chứng minh đúng: anh thực sự đã được thăng chức. Và bài báo mà ban đầu không ai chú ý vào đầu năm 2021, đến tháng 7 đã nhận giải thưởng bài báo xuất sắc nhất tại ICML, trở thành một tác phẩm kinh điển trong lĩnh vực học biểu diễn.
Sau ngày 22 tháng 10, tất cả các kênh liên lạc của anh gần như tê liệt — hàng trăm tin nhắn, email và lời mời họp đổ về mỗi ngày. Phải mất vài tuần để anh lấy lại cuộc sống bình thường. Cảm ơn tất cả mọi người đã quan tâm trong thời gian này, dù anh thừa nhận có thể còn một số tin chưa kịp phản hồi.
Cuối cùng, trong số các lời mời từ nhiều công ty công nghệ hàng đầu, anh chọn tham gia một dự án khởi nghiệp mới với vai trò đồng sáng lập. Chi tiết tạm thời giữ bí mật, anh muốn tập trung làm việc hơn là công khai quá sớm.
Bản đồ nghiên cứu 2025: Ba hướng chính
Tian Yuandong đã lên kế hoạch rõ ràng cho lộ trình nghiên cứu của mình: Hiệu quả suy luận của mô hình lớn và Khả năng giải thích của mô hình.
Suy luận liên tục trong không gian tiềm năng phân tán
Công trình về suy luận liên tục trong không gian tiềm năng (coconut, COLM’25) được công bố cuối năm 2024 đã gây tiếng vang rộng rãi vào năm 2025. Cộng đồng nghiên cứu bắt đầu khám phá: làm thế nào để áp dụng ý tưởng này trong học tăng cường và huấn luyện trước? Làm thế nào để tối ưu hóa hiệu quả huấn luyện và chi phí tính toán?
Dù nhóm của anh sau đó bị điều chuyển sang các dự án khác, không thể mở rộng sâu hơn hướng này, nhưng chính hướng đi này đã chứng minh giá trị của nó. Trong nửa đầu năm, họ đã xuất bản một bài phân tích lý thuyết mang tên 《Reasoning by Superposition》(NeurIPS’25), từ toán học trình bày rõ ràng lợi thế của suy luận trong không gian tiềm năng liên tục so với các phương pháp truyền thống, thu hút đáng kể sự chú ý.
Đột phá đa chiều về hiệu quả suy luận
Giảm chi phí suy luận của mô hình lớn là một công trình hệ thống, nhóm của Tian Yuandong thúc đẩy từ nhiều góc độ:
Tối ưu hóa ở cấp token: Token Assorted (ICLR’25), ban đầu học các token rời rạc trong không gian tiềm năng (dựa trên VQVAE), sau đó trong huấn luyện sau, kết hợp các token rời rạc này với token văn bản, giúp giảm rõ rệt chi phí suy luận, đồng thời còn nâng cao hiệu suất.
Dừng suy luận dựa trên độ tin cậy: DeepConf phát hiện độ tin cậy của từng token sinh ra, từ đó quyết định động xem có thể kết thúc sớm quá trình suy luận hay không, giảm đáng kể số token tiêu thụ trong suy luận. Trong các kịch bản như bỏ phiếu đa số, hiệu năng còn tốt hơn.
Tăng tốc huấn luyện chuỗi suy luận song song: ThreadWeaver tạo ra các chuỗi suy luận song song, qua huấn luyện sau để tối ưu phối hợp các chuỗi này, từ đó rút ngắn toàn bộ quá trình suy luận.
Ngoài ra, nhóm còn khám phá khả năng suy luận dựa trên học tăng cường trên các mô hình nhỏ (Sandwiched Policy Gradient), thậm chí trong các mô hình nhẹ như MobileLLM-R1 còn học được suy luận phức tạp.
Khả năng giải thích: Từ “tại sao hiệu quả” đến “chắc chắn hiệu quả”
Sự quan tâm của Tian Yuandong đối với hiện tượng Grokking (đột nhiên sáng tỏ) bắt nguồn từ một câu hỏi cốt lõi cách đây hai năm: khi phân tích biểu diễn học, anh có thể mô tả động thái học và cơ chế sụp đổ, nhưng không thể trả lời một câu hỏi nền tảng — Mô hình thực sự đã học được dạng biểu diễn nào? Những biểu diễn này liên hệ thế nào với cấu trúc dữ liệu? Chúng có thể đạt tới mức độ tổng quát nào?
Hiện tượng Grokking — chuyển đổi đột ngột từ ghi nhớ sang tổng quát — dường như là một cửa sổ để tiếp cận bí ẩn này. Những bước đầu khám phá thực sự gặp nhiều khó khăn. Công trình của năm 2024 COGS (NeurIPS’25) chỉ phân tích các trường hợp đặc biệt, khiến anh chưa hoàn toàn hài lòng. Sau hơn một năm suy nghĩ và đối thoại nhiều vòng với GPT, công trình mới nhất 《Provable Scaling Laws》 đánh dấu bước đột phá lớn: nó có thể phân tích các hiện tượng mà khung NTK tuyến tính không thể chạm tới, và giải thích khá tốt về sự xuất hiện của đặc trưng trong quá trình huấn luyện. Dù các ví dụ vẫn còn đặc thù, ít nhất đã mở ra một cánh cửa mới.
Công trình cuối năm 《The path not taken》 khiến anh đặc biệt hài lòng — nó đưa ra câu trả lời sơ bộ ở cấp trọng số, giải thích vì sao hành vi của học tăng cường và fine-tuning có giám sát (SFT) lại khác biệt lớn như vậy.
SFT dẫn đến quá mức và quên cục bộ thảm khốc, nguyên nhân bề ngoài là dữ liệu huấn luyện thiếu tính on-policy, nguyên nhân sâu xa là dữ liệu bên ngoài khiến các thành phần trọng số chính thay đổi mạnh mẽ, phá vỡ tính ổn định của “cơ sở”. Trong khi đó, học tăng cường dùng dữ liệu on-policy, giữ nguyên các thành phần trọng số chính, chỉ chỉnh sửa các thành phần phụ, tránh quên cục bộ thảm khốc — và các trọng số thay đổi này còn phân tán hơn (đặc biệt dưới lượng quantization bf16).
Tại sao khả năng giải thích đáng tin cậy
Nhiều người cho rằng khả năng giải thích — tức “tại sao AI lại hiệu quả như vậy” — không đủ quan trọng. Nhưng đối với Tian Yuandong, đây là vấn đề cốt lõi liên quan đến tương lai.
Xem xét hai viễn cảnh:
Viễn cảnh một: Nếu chỉ cần Scaling là đủ để đạt tới AGI hay thậm chí ASI, thì giá trị lao động của toàn nhân loại gần như bằng không. Trong trường hợp này, AI như một chiếc hộp đen khổng lồ giải quyết mọi vấn đề. Vậy câu hỏi cấp bách là: Làm thế nào để đảm bảo siêu trí tuệ này luôn thiện lành, không âm thầm lừa dối hoặc làm ác? Câu trả lời không thể thiếu nghiên cứu khả năng giải thích.
Viễn cảnh hai: Nếu con đường Scaling cuối cùng bị bế tắc, con người không thể đáp ứng nhu cầu tài nguyên theo cấp số nhân, thì chúng ta phải tìm hướng đi khác. Lúc này, hiểu “tại sao mô hình hiệu quả, điều gì khiến nó thất bại” trở thành điều tất yếu. Và nghiên cứu khả năng giải thích chính là nền móng của con đường thay thế này.
Dù theo hướng nào, khả năng giải thích đều là chìa khóa giải quyết vấn đề. Ngay cả khi AI là một thực thể toàn tri, thiện lành, bản tính con người vẫn thúc đẩy chúng ta khám phá lý do tại sao nó có thể làm được như vậy. Dù sao, “hộp đen” vốn đã sinh ra chuỗi nghi ngờ.
Trong thời đại các mô hình lớn đã đạt hoặc vượt qua trình độ trung bình của con người, quy luật “rừng rậm tối” trong 《Tam Sinh》 có thể sẽ biểu hiện theo một dạng khác. Hiện tại, việc mở hộp đen của mô hình đã huấn luyện, tìm ra các mạch nội tại của nó vẫn là nhiệm vụ sơ khai.
Thật ra, khó khăn lớn nhất của nghiên cứu khả năng giải thích nằm ở chỗ: từ nguyên lý đầu tiên — tức là từ kiến trúc mô hình, quá trình tối ưu bằng gradient và cấu trúc nội tại của dữ liệu — giải thích tại sao mô hình hội tụ tới các dạng biểu diễn phân rã, thưa thớt, có bậc thấp, mô-đun hóa, có thể kết hợp được. Tại sao tồn tại nhiều lời giải đồng đẳng như vậy? Những siêu tham số nào sẽ gây ra sự xuất hiện của các cấu trúc này? Chúng liên hệ với nhau như thế nào?
Khi chúng ta có thể trực tiếp suy ra từ phương trình gradient descent về tính tất yếu của sự xuất hiện đặc trưng trong các mô hình lớn, khả năng giải thích sẽ từ việc “thu thập chứng cứ” theo nghĩa sinh học chuyển sang “diễn dịch nguyên lý” theo nghĩa vật lý, từ đó dẫn dắt thực tiễn và mở ra con đường thiết kế AI thế hệ tiếp theo.
Lấy ví dụ từ vật lý cách đây bốn trăm năm: khi đó chúng ta có nhiều nhà Tư Tư (người thu thập dữ liệu trong lĩnh vực AI), một số Kepler (người đề xuất giả thuyết), nhưng chưa có Newton (người phát hiện nguyên lý). Khi khoảnh khắc đó đến, diện mạo thế giới sẽ thay đổi hoàn toàn.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Ngã rẽ năm 2025: Những suy nghĩ hàng năm của một nhà nghiên cứu AI (Phần 1)
Nguồn bài viết: Xinzhiyuan | Biên tập: Taozi
Lựa chọn rõ ràng đằng sau bước ngoặt nghề nghiệp
Khi một nhà nghiên cứu đối mặt với biến cố bất ngờ vào thời điểm quan trọng trong sự nghiệp, họ sẽ học được gì?
Bước ngoặt nghề nghiệp vào đầu năm 2025 đã cho Tian Yuandong cơ hội nhìn nhận lựa chọn của mình qua một khung quyết định kinh điển. Khi được mời tham gia dự án lớn “Ứng cứu”, nhà khoa học AI lâu năm nghiên cứu về học tăng cường đã vẽ sẵn một ma trận 2x2, liệt kê bốn khả năng kết quả. Nhưng thực tế đã mang đến cho anh một kết quả thứ năm — vượt xa dự đoán ban đầu.
Sự bất ngờ này giúp anh có cái nhìn sâu sắc hơn về tính phức tạp của xã hội. Tuy nhiên, trong vài tháng làm việc đó, nhóm đã đạt được bước đột phá trong các vấn đề cốt lõi của học tăng cường: ổn định huấn luyện, tương tác giữa huấn luyện và suy luận, thiết kế kiến trúc mô hình, sự phối hợp giữa huấn luyện trước và huấn luyện trung gian, thuật toán suy luận chuỗi dài, phương pháp tạo dữ liệu, thiết kế khung sau huấn luyện, v.v. Những thành tựu này đã mang lại một sự chuyển đổi mô hình quan trọng cho hướng nghiên cứu sau này của anh.
Tian Yuandong thừa nhận, quyết định rời khỏi các công ty lớn thực ra đã ấp ủ từ nhiều năm. Trong hơn một thập kỷ sự nghiệp, anh đã nhiều lần nghĩ đến việc nghỉ việc — cuối năm 2023 còn suýt nữa hành động, nhưng các yếu tố kinh tế và gia đình khiến anh nhiều lần thay đổi ý định. Gần đây, anh còn đùa rằng lời nói và hành xử của mình giống như đang “gợi ý” công ty nên để anh nghỉ việc. Lần này, cuối cùng anh đã “được giúp đỡ” để đưa ra quyết định.
Điều thú vị là, hành trình “ngược xuôi” này lại trở thành nguồn dưỡng chất sáng tạo của anh. Như câu tục ngữ cổ: “Nếu con đường quan trường không thông, thi nhân sẽ có lợi; cuộc đời phong phú, câu thơ càng sâu sắc.” Một cuộc đời quá trôi chảy, lại thiếu đi sức sống vốn có của cuộc sống.
Anh còn nhớ đầu năm 2021, vì viết vài dòng phản ánh về lý do “bài báo không được chấp nhận” trong tổng kết năm, mà đã nhận được phản hồi không mấy thân thiện. Nhưng anh chọn im lặng, thậm chí giả vờ vừa được thăng chức trước đám đông. Sáu tháng sau, chiến lược đó đã chứng minh đúng: anh thực sự đã được thăng chức. Và bài báo mà ban đầu không ai chú ý vào đầu năm 2021, đến tháng 7 đã nhận giải thưởng bài báo xuất sắc nhất tại ICML, trở thành một tác phẩm kinh điển trong lĩnh vực học biểu diễn.
Sau ngày 22 tháng 10, tất cả các kênh liên lạc của anh gần như tê liệt — hàng trăm tin nhắn, email và lời mời họp đổ về mỗi ngày. Phải mất vài tuần để anh lấy lại cuộc sống bình thường. Cảm ơn tất cả mọi người đã quan tâm trong thời gian này, dù anh thừa nhận có thể còn một số tin chưa kịp phản hồi.
Cuối cùng, trong số các lời mời từ nhiều công ty công nghệ hàng đầu, anh chọn tham gia một dự án khởi nghiệp mới với vai trò đồng sáng lập. Chi tiết tạm thời giữ bí mật, anh muốn tập trung làm việc hơn là công khai quá sớm.
Bản đồ nghiên cứu 2025: Ba hướng chính
Tian Yuandong đã lên kế hoạch rõ ràng cho lộ trình nghiên cứu của mình: Hiệu quả suy luận của mô hình lớn và Khả năng giải thích của mô hình.
Suy luận liên tục trong không gian tiềm năng phân tán
Công trình về suy luận liên tục trong không gian tiềm năng (coconut, COLM’25) được công bố cuối năm 2024 đã gây tiếng vang rộng rãi vào năm 2025. Cộng đồng nghiên cứu bắt đầu khám phá: làm thế nào để áp dụng ý tưởng này trong học tăng cường và huấn luyện trước? Làm thế nào để tối ưu hóa hiệu quả huấn luyện và chi phí tính toán?
Dù nhóm của anh sau đó bị điều chuyển sang các dự án khác, không thể mở rộng sâu hơn hướng này, nhưng chính hướng đi này đã chứng minh giá trị của nó. Trong nửa đầu năm, họ đã xuất bản một bài phân tích lý thuyết mang tên 《Reasoning by Superposition》(NeurIPS’25), từ toán học trình bày rõ ràng lợi thế của suy luận trong không gian tiềm năng liên tục so với các phương pháp truyền thống, thu hút đáng kể sự chú ý.
Đột phá đa chiều về hiệu quả suy luận
Giảm chi phí suy luận của mô hình lớn là một công trình hệ thống, nhóm của Tian Yuandong thúc đẩy từ nhiều góc độ:
Tối ưu hóa ở cấp token: Token Assorted (ICLR’25), ban đầu học các token rời rạc trong không gian tiềm năng (dựa trên VQVAE), sau đó trong huấn luyện sau, kết hợp các token rời rạc này với token văn bản, giúp giảm rõ rệt chi phí suy luận, đồng thời còn nâng cao hiệu suất.
Dừng suy luận dựa trên độ tin cậy: DeepConf phát hiện độ tin cậy của từng token sinh ra, từ đó quyết định động xem có thể kết thúc sớm quá trình suy luận hay không, giảm đáng kể số token tiêu thụ trong suy luận. Trong các kịch bản như bỏ phiếu đa số, hiệu năng còn tốt hơn.
Tăng tốc huấn luyện chuỗi suy luận song song: ThreadWeaver tạo ra các chuỗi suy luận song song, qua huấn luyện sau để tối ưu phối hợp các chuỗi này, từ đó rút ngắn toàn bộ quá trình suy luận.
Ngoài ra, nhóm còn khám phá khả năng suy luận dựa trên học tăng cường trên các mô hình nhỏ (Sandwiched Policy Gradient), thậm chí trong các mô hình nhẹ như MobileLLM-R1 còn học được suy luận phức tạp.
Khả năng giải thích: Từ “tại sao hiệu quả” đến “chắc chắn hiệu quả”
Sự quan tâm của Tian Yuandong đối với hiện tượng Grokking (đột nhiên sáng tỏ) bắt nguồn từ một câu hỏi cốt lõi cách đây hai năm: khi phân tích biểu diễn học, anh có thể mô tả động thái học và cơ chế sụp đổ, nhưng không thể trả lời một câu hỏi nền tảng — Mô hình thực sự đã học được dạng biểu diễn nào? Những biểu diễn này liên hệ thế nào với cấu trúc dữ liệu? Chúng có thể đạt tới mức độ tổng quát nào?
Hiện tượng Grokking — chuyển đổi đột ngột từ ghi nhớ sang tổng quát — dường như là một cửa sổ để tiếp cận bí ẩn này. Những bước đầu khám phá thực sự gặp nhiều khó khăn. Công trình của năm 2024 COGS (NeurIPS’25) chỉ phân tích các trường hợp đặc biệt, khiến anh chưa hoàn toàn hài lòng. Sau hơn một năm suy nghĩ và đối thoại nhiều vòng với GPT, công trình mới nhất 《Provable Scaling Laws》 đánh dấu bước đột phá lớn: nó có thể phân tích các hiện tượng mà khung NTK tuyến tính không thể chạm tới, và giải thích khá tốt về sự xuất hiện của đặc trưng trong quá trình huấn luyện. Dù các ví dụ vẫn còn đặc thù, ít nhất đã mở ra một cánh cửa mới.
Công trình cuối năm 《The path not taken》 khiến anh đặc biệt hài lòng — nó đưa ra câu trả lời sơ bộ ở cấp trọng số, giải thích vì sao hành vi của học tăng cường và fine-tuning có giám sát (SFT) lại khác biệt lớn như vậy.
SFT dẫn đến quá mức và quên cục bộ thảm khốc, nguyên nhân bề ngoài là dữ liệu huấn luyện thiếu tính on-policy, nguyên nhân sâu xa là dữ liệu bên ngoài khiến các thành phần trọng số chính thay đổi mạnh mẽ, phá vỡ tính ổn định của “cơ sở”. Trong khi đó, học tăng cường dùng dữ liệu on-policy, giữ nguyên các thành phần trọng số chính, chỉ chỉnh sửa các thành phần phụ, tránh quên cục bộ thảm khốc — và các trọng số thay đổi này còn phân tán hơn (đặc biệt dưới lượng quantization bf16).
Tại sao khả năng giải thích đáng tin cậy
Nhiều người cho rằng khả năng giải thích — tức “tại sao AI lại hiệu quả như vậy” — không đủ quan trọng. Nhưng đối với Tian Yuandong, đây là vấn đề cốt lõi liên quan đến tương lai.
Xem xét hai viễn cảnh:
Viễn cảnh một: Nếu chỉ cần Scaling là đủ để đạt tới AGI hay thậm chí ASI, thì giá trị lao động của toàn nhân loại gần như bằng không. Trong trường hợp này, AI như một chiếc hộp đen khổng lồ giải quyết mọi vấn đề. Vậy câu hỏi cấp bách là: Làm thế nào để đảm bảo siêu trí tuệ này luôn thiện lành, không âm thầm lừa dối hoặc làm ác? Câu trả lời không thể thiếu nghiên cứu khả năng giải thích.
Viễn cảnh hai: Nếu con đường Scaling cuối cùng bị bế tắc, con người không thể đáp ứng nhu cầu tài nguyên theo cấp số nhân, thì chúng ta phải tìm hướng đi khác. Lúc này, hiểu “tại sao mô hình hiệu quả, điều gì khiến nó thất bại” trở thành điều tất yếu. Và nghiên cứu khả năng giải thích chính là nền móng của con đường thay thế này.
Dù theo hướng nào, khả năng giải thích đều là chìa khóa giải quyết vấn đề. Ngay cả khi AI là một thực thể toàn tri, thiện lành, bản tính con người vẫn thúc đẩy chúng ta khám phá lý do tại sao nó có thể làm được như vậy. Dù sao, “hộp đen” vốn đã sinh ra chuỗi nghi ngờ.
Trong thời đại các mô hình lớn đã đạt hoặc vượt qua trình độ trung bình của con người, quy luật “rừng rậm tối” trong 《Tam Sinh》 có thể sẽ biểu hiện theo một dạng khác. Hiện tại, việc mở hộp đen của mô hình đã huấn luyện, tìm ra các mạch nội tại của nó vẫn là nhiệm vụ sơ khai.
Thật ra, khó khăn lớn nhất của nghiên cứu khả năng giải thích nằm ở chỗ: từ nguyên lý đầu tiên — tức là từ kiến trúc mô hình, quá trình tối ưu bằng gradient và cấu trúc nội tại của dữ liệu — giải thích tại sao mô hình hội tụ tới các dạng biểu diễn phân rã, thưa thớt, có bậc thấp, mô-đun hóa, có thể kết hợp được. Tại sao tồn tại nhiều lời giải đồng đẳng như vậy? Những siêu tham số nào sẽ gây ra sự xuất hiện của các cấu trúc này? Chúng liên hệ với nhau như thế nào?
Khi chúng ta có thể trực tiếp suy ra từ phương trình gradient descent về tính tất yếu của sự xuất hiện đặc trưng trong các mô hình lớn, khả năng giải thích sẽ từ việc “thu thập chứng cứ” theo nghĩa sinh học chuyển sang “diễn dịch nguyên lý” theo nghĩa vật lý, từ đó dẫn dắt thực tiễn và mở ra con đường thiết kế AI thế hệ tiếp theo.
Lấy ví dụ từ vật lý cách đây bốn trăm năm: khi đó chúng ta có nhiều nhà Tư Tư (người thu thập dữ liệu trong lĩnh vực AI), một số Kepler (người đề xuất giả thuyết), nhưng chưa có Newton (người phát hiện nguyên lý). Khi khoảnh khắc đó đến, diện mạo thế giới sẽ thay đổi hoàn toàn.