Hội nghị Davos|Sự khác biệt trong phát triển AGI? Ba quan điểm chính của Google DeepMind và Anthropic một lần xem

robot
Đang tạo bản tóm tắt

Google DeepMind 執行長 Demis Hassabis và Giám đốc điều hành Anthropic Dario Amodei tại Diễn đàn Kinh tế Thế giới (WEF) tổ chức tại Davos, Thụy Sĩ vào ngày 20/1, đã thảo luận cùng nhau về sự phát triển tương lai của trí tuệ nhân tạo tổng quát (AGI), toàn bộ cuộc trò chuyện diễn ra trong bầu không khí lý trí và thân thiện, nhưng trên ba chủ đề cốt lõi, hai người thể hiện rõ sự bất đồng.

通用人工智慧 (AGI) là gì?

AGI đề cập đến một dạng trí tuệ nhân tạo giả định, có khả năng hiểu, học hỏi và thực hiện các nhiệm vụ lý trí mà con người có thể làm, mục tiêu là mô phỏng khả năng nhận thức của bộ não con người. Khác với phần lớn AI hiện nay chỉ có thể xử lý một nhiệm vụ duy nhất, AGI có khả năng tổng quát xuyên lĩnh vực, có thể áp dụng kiến thức đã học trong một lĩnh vực vào các tình huống hoàn toàn mới, đồng thời sở hữu kiến thức phổ thông và hiểu biết về thế giới gần như con người, dùng để suy luận và ra quyết định.

Sự phát triển của AGI dựa trên nghiên cứu liên ngành trong khoa học máy tính, khoa học thần kinh và tâm lý nhận thức. Hiện tại, AGI thực sự vẫn chưa ra đời, nhưng các nghiên cứu và phát triển liên quan vẫn đang tiếp tục.

Khi nào AGI sẽ được hiện thực hóa? Giám đốc điều hành DeepMind và Anthropic có quan điểm khác nhau

Amodei, Giám đốc điều hành của Anthropic, nhắc lại lịch trình mà ông đề xuất vào năm ngoái, có thể trong khoảng 2026–2027, sẽ xuất hiện AI đạt trình độ “đẳng cấp Nobel” trong đa số lĩnh vực.

“Chỉ cần AI đã có thể lập trình, nghiên cứu AI, thì có thể quay lại giúp chính nó thiết kế thế hệ mô hình tiếp theo, tạo thành vòng lặp tự tăng tốc AI giúp AI nâng cấp chính nó. Một khi vòng lặp này bắt đầu vận hành trôi chảy, AGI sẽ bộc phát theo cấp số nhân.”

Ông thậm chí còn nói rằng, trong nội bộ Anthropic đã có kỹ sư gần như không còn tự viết mã nữa, mà để mô hình sinh ra rồi người dùng kiểm tra, cho thấy con đường này đã bắt đầu hình thành.

Tuy nhiên, Giám đốc điều hành của Google DeepMind, Hassabis, giữ quan điểm thận trọng hơn, vẫn dự đoán “có khả năng 50% trong cuối thế kỷ này sẽ xuất hiện AGI hoàn chỉnh”. Ông cho rằng, các lĩnh vực như lập trình, toán học, có thể tự động hóa nhanh chóng, nhưng các lĩnh vực khoa học tự nhiên, sáng tạo lý thuyết và đặt câu hỏi hay vẫn còn thiếu các khả năng then chốt, và quá trình xác nhận kéo dài, thế giới vật chất còn nhiều trở ngại, không thể nhanh chóng giải quyết bằng vòng lặp tự tăng tốc.

AI ảnh hưởng đến việc làm sẽ xuất hiện nhanh như thế nào? Amodei cảnh báo cấp bách, Hassabis nhấn mạnh về khả năng thích ứng

Về vấn đề việc làm, hai người cũng thể hiện sự khác biệt rõ rệt. Amodei từng công khai nói rằng trong vòng 1–5 năm tới, có thể một nửa các công việc văn phòng sơ cấp sẽ biến mất. Trong diễn đàn này, ông giải thích rằng, mặc dù dữ liệu lao động tổng thể chưa phản ánh đầy đủ, nhưng đã có thể thấy tác động sơ bộ trong lĩnh vực lập trình và kỹ thuật, nhu cầu về nhân lực sơ cấp và trung cấp có thể sẽ bắt đầu giảm tốc trước, rồi sau đó mới rõ ràng hơn về việc thay thế. Nỗi lo chính của Amodei là, tiến bộ của AI theo cấp số nhân, nhưng tốc độ thích ứng của xã hội lại theo tuyến tính, cuối cùng sẽ dẫn đến chênh lệch.

Trong khi đó, Hassabis gần như theo quan điểm kinh tế học truyền thống. Ông cho rằng, trong ngắn hạn, sẽ lặp lại mô hình của các cuộc cách mạng công nghệ trước đây, tức là:

“Có những công việc biến mất, nhưng đồng thời sẽ xuất hiện những công việc mới, có giá trị cao hơn, và các vị trí sơ cấp, thực tập sinh có thể sẽ bị ảnh hưởng đầu tiên.”

Nhưng ông cũng nhấn mạnh rằng, các công cụ AI hiện nay gần như “mọi người đều có thể dùng”, nếu giới trẻ có thể nhanh chóng làm chủ, thì còn có thể tích lũy kinh nghiệm thực tập nhanh hơn cả cách truyền thống.

Liệu sự phát triển của AI có nên chậm lại? Amodei đề xuất cần chậm, Hassabis muốn tiến đều và ổn định

Khi nói về rủi ro và địa chính trị, sự khác biệt càng rõ ràng hơn. Amodei thẳng thắn mong muốn toàn thế giới “chậm lại” trong phát triển AI, để có thêm thời gian xây dựng các cơ chế an toàn và quản trị. Ông đề xuất mạnh mẽ hạn chế dòng chảy của các chip tiên tiến ra ngoài, cho rằng ý nghĩa chiến lược của AI đã gần như ngang bằng với vũ khí hạt nhân, không nên chỉ dựa trên lý luận thương mại hay chuỗi cung ứng. Ông còn ví von việc giao dịch vũ khí hạt nhân, cho rằng không thể vì lợi ích ngắn hạn mà đánh đổi rủi ro dài hạn.

Hassabis, về mặt giá trị, không phản đối việc “chậm lại là tốt”, nhưng ông nhấn mạnh các điều kiện thực tế, tức là các yếu tố địa chính trị và cạnh tranh doanh nghiệp, khiến việc thực sự giảm tốc rất khó khăn. Trong tình huống này, thay vì kỳ vọng toàn diện về việc chậm lại, vấn đề thực tế hơn là:

“Làm thế nào để trong cuộc đua tốc độ cao của AI, có thể đồng thời thiết lập các cơ chế an toàn để đối phó rủi ro.”

Sự khác biệt ngoài ý chí, quyết định nhịp độ phát triển của AI trong tương lai

Điều đáng chú ý là, hai người đều có sự nhất trí cao về nhiều hướng lớn, như đều cho rằng AI sẽ thay đổi thế giới một cách mạnh mẽ, đều thừa nhận các rủi ro an toàn là có thật, và phản đối luận điểm “tận thế đã định”. Nhưng về tốc độ, họ đưa ra các câu trả lời rõ ràng khác nhau. Sự khác biệt này cũng phản ánh đúng các vấn đề cốt lõi của thời đại AI hiện nay, đó là liệu chúng ta có nên thúc đẩy AI tiến tới AGI hay kiểm soát tốc độ phát triển.

(AI bắt đầu tự làm việc rồi, Anthropic giải thích: Con người nên đánh giá thế nào về việc AI làm tốt hay không?)

Bài viết này Đào Duỹ Diễn đàn|Sự chia rẽ trong phát triển AGI? Ba quan điểm lớn của Google DeepMind và Anthropic cùng xem lần đầu tiên xuất hiện trên 链新闻 ABMedia.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận