Một thứ người thường cho là "làm màu, vô nghĩa", nhưng các tỷ phú lại dốc cả núi tiền vào để đầu tư

Quốc tế
06:51 AM 21/10/2025

Dù xây mất nhiều tiền của nhưng không ai mong muốn có ngày sử dụng công trình này.

Nhiều thông tin cho rằng, các tỷ phú công nghệ, bao gồm Mark Zuckerberg, Sam Altman và Reid Hoffman... đang xây dựng hoặc mua hầm trú ẩn, khu phức hợp bí mật và các chương trình "bảo hiểm ngày tận thế". Đây không phải thông tin quá bất ngờ với công chúng.

Dẫu vậy, điều này vẫn khiến mọi người tự hỏi liệu họ có biết điều gì đó mà chúng ta không biết, chẳng hạn như thảm họa sắp xảy ra do trí tuệ nhân tạo (AI), biến đổi khí hậu hay chiến tranh? Tuy nhiên, một số quan điểm lại cho rằng những lo ngại như vậy có thể chỉ là phóng đại hoặc vô căn cứ.

Các chuyên gia trong lĩnh vực này có xu hướng đồng ý rằng việc nói về Trí tuệ nhân tạo tổng quát (AGI), hay AI thông minh như hoặc thông minh hơn con người, có thể chỉ là sự cường điệu và tiếp thị hơn là hiện thực sắp xảy ra.

Tuy nhiên, điều đó không ngăn cản các tỷ phú "đầu tư" vào các căn nhà và hầm trú ẩn an toàn xa xôi. Ví dụ, Zuckerberg đã xây dựng một khu phức hợp khổng lồ ở Hawaii, được cho là có một hầm trú ẩn ngầm khổng lồ, mặc dù anh phủ nhận đó là "hầm trú ẩn ngày tận thế".

Những nhân vật công nghệ khác, như Reid Hoffman của LinkedIn, công khai thừa nhận sở hữu các bất động sản "bảo hiểm tận thế" (đặc biệt là ở New Zealand). Hành vi này làm dấy lên đồn đoán của công chúng rằng giới siêu giàu đang chuẩn bị cho sự sụp đổ xã hội, thảm họa khí hậu, hoặc AI độc hại.

Boongke phòng ngừa ngày tận thế: Bảo hiểm cho tương lai hay phản ứng thái quá?

Một thứ người thường cho là "làm màu, vô nghĩa", nhưng các tỷ phú lại dốc cả núi tiền vào để đầu tư- Ảnh 1.

Một số người ở Thung lũng Silicon, ngay cả những người đang phát triển AI tiên tiến, thực sự lo ngại về tương lai của công nghệ này. Ilya Sutskever, đồng sáng lập OpenAI, từng phát biểu: "Chúng tôi chắc chắn sẽ xây dựng một hầm trú ẩn trước khi phát hành AGI."

Một nhóm người cho rằng, một khi AGI tồn tại, nó có thể trở nên khó lường hoặc không thể kiểm soát, thậm chí có thể gây nguy hiểm cho nhân loại. Điều này kết hợp với những lo ngại rộng hơn về chiến tranh hạt nhân, đại dịch, biến đổi khí hậu và bất ổn xã hội... Những kịch bản này đã dẫn đến ý tưởng về việc xây dựng các boongke xa hoa, giúp các tỷ phú sống sót khi không may xảy ra thảm họa.

Những người ủng hộ AGI gần như hoàn toàn tán dương lợi ích của nó. Họ lập luận rằng nó sẽ tìm ra phương pháp chữa trị mới cho các căn bệnh chết người, giải quyết vấn đề biến đổi khí hậu và tạo ra nguồn năng lượng sạch vô tận.

Elon Musk thậm chí còn tuyên bố rằng AI siêu thông minh có thể mở ra kỷ nguyên "thu nhập cao trên toàn cầu".

Phía ngược lại, một số nhà lãnh đạo công nghệ (đáng chú ý là Sam Altman, Demis Hassabis và Dario Amodei) cho rằng AGI có thể xuất hiện trong thập kỷ tới. Những người khác, như Giáo sư Wendy Hall (giáo sư khoa học máy tính tại Đại học Southampton), lại cho rằng đây chỉ là sự cường điệu.

Bà khẳng định chúng ta vẫn còn rất nhiều bước đột phá để đạt đến mức độ thực sự giống con người. Cộng đồng khoa học nói rằng công nghệ AI rất tuyệt vời,” bà giải thích, “nhưng nó còn lâu mới đạt đến trí thông minh của con người.”

AI ngày nay có thể phân tích dữ liệu và bắt chước suy luận, nhưng nó không hiểu hay cảm nhận được. Nó không có ý thức, nó chỉ dự đoán từ ngữ hoặc khuôn mẫu. Vì vậy, nhiều lời bàn tán về "AGI đang đến gần" có thể chỉ là chiêu trò tiếp thị, tự quảng bá, hoặc nói cách khác là một cách để thu hút tài trợ hoặc sự chú ý.

Hoa Kỳ (dưới thời Biden) đã cố gắng quản lý việc thử nghiệm an toàn AI, trong khi chính quyền Trump hiện tại lại bác bỏ, cho rằng đây là rào cản đối với sự đổi mới. Về phần mình, Vương quốc Anh cũng đã thành lập Viện An toàn AI để nghiên cứu những rủi ro này.

Nhiều chuyện không đâu...

Một thứ người thường cho là "làm màu, vô nghĩa", nhưng các tỷ phú lại dốc cả núi tiền vào để đầu tư- Ảnh 2.

Một số nhà khoa học cảnh báo rằng việc nói về "AI siêu thông minh" sẽ làm sao lãng khỏi những vấn đề cấp bách hơn như thành kiến cố hữu, thông tin sai lệch, mất việc làm và tập trung quyền lực trong ngành công nghệ lớn.

Các chuyên gia như Giáo sư Neil Lawrence cho rằng thuật ngữ "AGI" là vô nghĩa, bởi trí thông minh luôn phụ thuộc vào ngữ cảnh. Theo quan điểm của ông, không có một loại "trí thông minh tổng quát" duy nhất.

Ông so sánh điều này với việc tưởng tượng ra một "phương tiện nhân tạo" có thể bay, lướt và lái tốt như nhau, điều này rõ ràng là không thực tế. Thay vì lo lắng về AI ở mức độ viễn tưởng, ông cho rằng chúng ta nên tập trung vào cách AI.

Cũng theo các chuyên gia, "sự chuẩn bị cho ngày tận thế" của các tỷ phú phản ánh sự pha trộn giữa nỗi sợ hãi thực sự về việc mất quyền kiểm soát các công nghệ mạnh mẽ. Nó cũng có thể là một hình thức thể hiện địa vị, khi giới siêu giàu thực sự thể hiện sự giàu có và thận trọng.

Dù trường hợp nào đi nữa, sự đồng thuận của giới khoa học là AGI và “siêu trí tuệ” không phải là điều gì đó xa vời, và chúng ta nên lo lắng nhiều hơn về cách AI hiện tại đang định hình lại xã hội, chứ không phải về việc cần có một hầm trú ẩn.

Thùy Anh
Ý kiến của bạn
Hà Nội điểm sáng trong xây dựng mạng lưới sản xuất - tiêu dùng bền vững Hà Nội điểm sáng trong xây dựng mạng lưới sản xuất - tiêu dùng bền vững

Được đánh giá là một trong những địa phương đi đầu cả nước trong việc triển khai mạnh mẽ các hoạt động nhằm thúc đẩy sản xuất và tiêu dùng bền vững, Hà Nội đã tăng cường triển khai tiêu dùng xanh, đẩy mạnh các chương trình hỗ trợ kỹ thuật, kết nối cung cầu cho các đơn vị sản xuất xanh, hướng đến sự phát triển bền vững.