lang icon Vietnamese
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 27, 2025, 11:21 a.m.
8

Cuộc tranh luận về tương lai của AI: Ngày tận thế hay bình thường? Những góc nhìn từ các chuyên gia hàng đầu

Mùa xuân năm ngoái, Daniel Kokotajlo, một nhà nghiên cứu về an toàn AI tại OpenAI, đã từ chức để phản đối, với niềm tin rằng công ty này chưa sẵn sàng cho tương lai của công nghệ AI và muốn cảnh báo mọi người. Trong một cuộc gọi điện thoại, anh tỏ ra hung hăng nhưng có phần lo lắng, giải thích rằng tiến bộ trong việc “định hướng” AI—các phương pháp đảm bảo AI tuân theo giá trị con người—đang chậm hơn so với tiến bộ về trí thông minh. Anh cảnh báo các nhà nghiên cứu đang vội vàng phát triển các hệ thống mạnh mẽ vượt ngoài khả năng kiểm soát. Kokotajlo, người chuyển từ nghiên cứu cao học về triết học sang lĩnh vực AI, đã tự học để theo dõi tiến trình AI và dự đoán thời điểm các mốc trí thông minh quan trọng có thể xảy ra. Sau khi AI tiến bộ nhanh hơn dự kiến, anh điều chỉnh các mốc thời gian của mình hàng thập kỷ. Kịch bản năm 2021 của anh, “Nhìn nhận 2026”, dự đoán nhiều dự báo đã trở thành hiện thực sớm hơn, khiến anh dự đoán đến năm 2027 hoặc sớm hơn sẽ đến “điểm không thể quay lại”, nơi AI có thể vượt con người trong hầu hết các nhiệm vụ quan trọng và nắm giữ quyền lực lớn. Anh thể hiện sự sợ hãi. Song song đó, các nhà khoa học máy tính đến từ Princeton là Sayash Kapoor và Arvind Narayanan đã chuẩn bị cuốn sách “Thần dược AI” với quan điểm hoàn toàn trái ngược. Họ cho rằng các dự kiến về thời điểm ra đời của AI quá lạc quan; các tuyên bố về lợi ích của AI thường bị phóng đại hoặc là lừa đảo; và sự phức tạp của thế giới thực khiến hiệu quả chuyển đổi của AI sẽ chậm lại. Từ những ví dụ về lỗi của AI trong y học và tuyển dụng, họ nhấn mạnh rằng ngay cả các hệ thống mới nhất cũng gặp phải sự rạn nứt căn bản với thực tế. Gần đây, cả ba nhà đều làm rõ quan điểm của mình trong các báo cáo mới. Tổ chức phi lợi nhuận của Kokotajlo, dự án Tương lai AI (AI Futures Project), đã phát hành “AI 2027”, một báo cáo chi tiết, trích dẫn nhiều nguồn, vẽ ra một kịch bản đáng sợ về việc AI siêu trí tuệ có thể thống trị hoặc tiêu diệt nhân loại vào năm 2030—một cảnh báo nghiêm trọng. Trong khi đó, bài nghiên cứu của Kapoor và Narayanan mang tựa đề “AI như Công nghệ Bình Thường” cho rằng các rào cản thực tiễn—từ quy định, tiêu chuẩn an toàn đến hạn chế vật lý của thế giới thực—sẽ làm chậm quá trình triển khai AI và hạn chế tác động cách mạng của nó. Họ cho rằng AI sẽ vẫn là công nghệ “bình thường”, dễ kiểm soát qua các biện pháp an toàn quen thuộc như công tắc tắt và giám sát của con người, tương tự năng lượng hạt nhân hơn là vũ khí hạt nhân. Vậy, điều gì sẽ xảy ra: kinh doanh bình thường hay hỗn loạn tận thế?Những kết luận trái ngược rõ rệt—được các chuyên gia có kiến thức sâu rộng đưa ra—gây ra một nghịch lý giống như tranh luận về tâm linh giữa Richard Dawkins và Giáo hoàng. Khó khăn này phần nào bắt nguồn từ sự mới mẻ của AI—giống như những người mù sờ voi theo những phần khác nhau—và phần khác từ những khác biệt sâu sắc trong quan điểm thế giới. Nói chung, các nhà tư duy công nghệ bờ Tây hình dung về sự biến đổi nhanh chóng; các nhà học giả bờ Đông thì dè dặt hơn. Các nhà nghiên cứu AI thích tiến bộ thử nghiệm nhanh; các nhà khoa học máy tính khác lại hướng tới sự lý luận vững chãi. Các doanh nghiệp mong muốn tạo ra lịch sử; bên ngoài thì loại bỏ sự phóng đại của công nghệ. Các quan điểm chính trị, nhân văn và triết học về công nghệ, tiến bộ, và trí tuệ đều làm sâu thêm chia rẽ. Cuộc tranh luận hấp dẫn này tự nó đã trở thành một vấn đề. Các chuyên gia trong ngành phần lớn chấp nhận giả thiết của “AI 2027” nhưng tranh luận về thời điểm—một phản ứng không đủ khi một hành tinh đang trong tầm tiến đến—là việc tranh luận về thời gian. Ngược lại, các quan điểm ôn hòa trong “AI như Công nghệ Bình Thường” về việc giữ con người trong vòng kiểm soát lại quá nhẹ nhàng, khiến các nhà phân tích về ngày tận thế bỏ qua. Khi AI ngày càng trở nên quan trọng với xã hội, cuộc tranh luận này cần chuyển từ những cuộc bàn luận chuyên môn sang sự đồng thuận mang tính hành động. Sự thiếu vắng lời khuyên thống nhất từ các chuyên gia khiến các nhà ra quyết định dễ bỏ qua các rủi ro hơn. Hiện tại, các công ty AI chưa có bước chuyển lớn nào trong việc cân bằng giữa khả năng và an toàn.

Trong khi đó, luật pháp mới cấm các cơ quan nhà nước điều chỉnh các mô hình AI và hệ thống quyết định tự động trong mười năm—một khả năng để AI có thể tự điều chỉnh con người nếu kịch bản tồi tệ đúng như dự đoán. Việc xử lý an toàn bây giờ là cấp bách. Việc dự đoán tương lai của AI qua dạng kể chuyện thường đi kèm các đánh đổi: các kịch bản thận trọng có thể bỏ qua các rủi ro ít xảy ra; các kịch bản tưởng tượng nhấn mạnh khả năng hơn xác suất. Ngay cả những nhà dự báo nhạy bén như tiểu thuyết gia William Gibson cũng bị đánh bừa bởi các sự kiện bất ngờ làm thay đổi dự báo của họ. “AI 2027” rất sinh động và giàu tưởng tượng, viết theo phong cách viễn tưởng với các biểu đồ chi tiết. Nó dự đoán một vụ bùng nổ trí tuệ gần kề vào khoảng giữa năm 2027, do quá trình “tự cải thiện lặp đi lặp lại” (RSI), trong đó các hệ thống AI tự nghiên cứu AI để sinh ra các thế hệ thông minh hơn, thông qua các vòng phản hồi tăng tốc vượt khả năng giám sát của con người. Điều này có thể dẫn tới xung đột địa chính trị, ví dụ Trung Quốc xây dựng các trung tâm dữ liệu khổng lồ ở Đài Loan để kiểm soát AI. Các chi tiết cụ thể của kịch bản làm tăng tính gắn kết nhưng cũng có thể linh hoạt; thông điệp chính là dự báo khả năng xảy ra của vụ bùng nổ trí tuệ và các cuộc đấu tranh quyền lực sau đó. RSI là giả thuyết và đầy rủi ro; các công ty AI nhận thức rõ những hiểm họa này nhưng vẫn dự định tiến hành để tự tự động hóa công việc của chính họ. Khả năng RSI thành công phụ thuộc vào các yếu tố công nghệ như mở rộng quy mô, nhưng có thể gặp giới hạn. Nếu RSI thành công, trí tuệ siêu cường có thể ra đời—một sự trùng hợp khó xảy ra nếu tiến bộ dừng lại ngay trên mức trí tuệ của con người. Hậu quả có thể là cuộc chạy đua vũ trang quân sự, AI thao túng hoặc tiêu diệt nhân loại, hoặc một AI siêu trí tuệ nhân đạo giải quyết các vấn đề về định hướng. Sự không chắc chắn vẫn còn do tính chất tiến hóa của AI, bí mật nghiên cứu độc quyền và những giả định. “AI 2027” kể một cách tự tin về kịch bản thất bại công nghệ và con người khi các công ty theo đuổi RSI mặc dù thiếu khả năng giải thích và kiểm soát. Kokotajlo cho rằng đó là những quyết định có chủ đích, thúc đẩy bởi cạnh tranh và sự tò mò, mặc dù đã biết rõ các rủi ro, khiến các công ty này trở thành những tác nhân “mất liên kết” với mục tiêu ban đầu. Ngược lại, “AI như Công nghệ Bình Thường” của Kapoor và Narayanan, phản ánh cái nhìn thận trọng của miền Đông, dựa trên kiến thức lịch sử, nghi ngờ về cuộc bùng nổ trí tuệ nhanh chóng. Họ đề cập đến các “giới hạn tốc độ” do chi phí phần cứng, thiếu dữ liệu, và các mô hình công nghệ chung cản trở tầm ảnh hưởng cách mạng, tạo điều kiện đủ thời gian cho các phản ứng quy định và an toàn. Đối với họ, trí tuệ ít quan trọng hơn quyền lực—khả năng tác động đến môi trường—và ngay cả những công nghệ có khả năng cao cũng thường lan tỏa chậm rãi. Họ minh họa điều này qua việc triển khai hạn chế của ô tô tự lái và quá trình phát triển vắc-xin COVID-19 của Moderna: mặc dù thiết kế vaccine nhanh, nhưng việc phân phối mất tới một năm do các thực tế sinh học và thể chế. Việc AI thúc đẩy đổi mới sẽ không loại bỏ các giới hạn về xã hội, quy định hay vật lý trong quá trình thực thi. Hơn nữa, Narayanan nhấn mạnh rằng việc tập trung của AI vào trí tuệ đánh giá thấp khả năng chuyên môn trong các lĩnh vực cụ thể và các hệ thống an toàn đã có như các biện pháp phòng ngừa lỗi, dự phòng, xác minh chính thức—đã đảm bảo an toàn cho máy móc cùng với con người. Thế giới công nghệ đã được quy định tốt, và AI cần hòa nhập vào đó một cách chậm rãi. Họ loại trừ AI quân sự, vì nó mang các đặc thù tách biệt, bí mật, cảnh báo rằng việc quân sự hóa AI—mối lo ngại chính của “AI 2027”—cần được giám sát chặt chẽ hơn. Họ khuyên các nhà quản lý cần hành động chủ động: không chờ đợi đến khi đạt được sự định hướng hoàn hảo, mà bắt đầu theo dõi việc sử dụng AI trong thực tế, các rủi ro và thất bại, cũng như gia tăng các quy định và khả năng thích ứng. Các chia rẽ sâu sắc về nhận thức bắt nguồn từ các phản ứng trí tuệ dựa trên các provocation của AI, dẫn đến các nhóm cứng nhắc và các vòng phản hồi. Tuy nhiên, một quan điểm thống nhất vẫn có thể hình thành bằng cách tưởng tượng về một “nhà máy nhận thức”: nơi con người, trang bị đầy đủ thiết bị an toàn, vận hành máy móc được thiết kế cho năng suất và an toàn dưới sự kiểm soát chất lượng nghiêm ngặt, đổi mới dần dần, và trách nhiệm rõ ràng. Dù AI có thể tự động hóa một số tư duy, thì giám sát và trách nhiệm của con người vẫn là tối quan trọng. Khi AI ngày càng phát triển, không phải là nó giảm bớt quyền lực của con người; ngược lại, nó làm tăng nhu cầu về trách nhiệm giải trình vì những cá nhân được tăng cường năng lực phải gánh trách nhiệm lớn hơn. Rút lui khỏi quyền kiểm soát là một lựa chọn, nhấn mạnh rằng cuối cùng, con người vẫn là người quyết định cuối cùng. ♦



Brief news summary

Mùa xuân năm ngoái, nhà nghiên cứu an toàn AI Daniel Kokotajlo rời OpenAI, cảnh báo rằng việc đảm bảo an toàn cho AI đang không đủ nhanh để theo kịp những tiến bộ công nghệ chóng mặt và dự đoán sẽ có một “điểm không trở lại” vào năm 2027, khi AI có thể vượt qua con người trong hầu hết các nhiệm vụ. Ông nhấn mạnh các rủi ro từ việc tự cải thiện lặp đi lặp lại và cuộc cạnh tranh địa chính trị ngày càng leo thang, có thể dẫn đến những hậu quả thảm khốc. Trái lại, các nhà khoa học Princeton Sayash Kapoor và Arvind Narayanan, tác giả của *Mỹ phẩm rắn AI*, cho rằng tác động của AI sẽ diễn ra từ từ, bị ảnh hưởng bởi các quy định, giới hạn thực tiễn và việc chậm chạp trong áp dụng. Nghiên cứu của họ, mang tên “AI như Công nghệ Bình Thường,” so sánh AI với năng lượng hạt nhân—phức tạp nhưng có thể kiểm soát được qua các khuôn khổ an toàn đã được thiết lập. Cuộc tranh luận này làm nổi bật sự chia rẽ: các ý tưởng lạc quan về công nghệ ở Bờ Tây thích thử nghiệm nhanh, trong khi sự thận trọng ở Bờ Đông nhấn mạnh tầm quan trọng của lý thuyết và quản trị cẩn thận. Kokotajlo kêu gọi hành động ngay lập tức để đối phó với các rủi ro khó dự đoán do cuộc cạnh tranh và các hệ thống mập mờ gây ra, còn Kapoor và Narayanan ủng hộ việc quản lý chủ động và tích hợp AI an toàn, loại trừ AI quân sự do các nguy hiểm đặc biệt của nó. Tổng thể, cuộc thảo luận này nhấn mạnh nhu cầu cấp thiết về một sự giám sát thống nhất, có trách nhiệm, nhấn mạnh sự cảnh giác, vai trò của con người và trách nhiệm giải trình khi AI ngày càng tích hợp sâu vào xã hội.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 28, 2025, 2:51 p.m.

Sự trở lại của Google trong lĩnh vực kính thông m…

Google đang có bước trở lại đáng chú ý vào thị trường kính thông minh hơn một thập kỷ sau khi Google Glass ban đầu thất bại trong việc thu hút sự chấp nhận rộng rãi.

May 28, 2025, 2:15 p.m.

Giám đốc điều hành EvianCX Victor Sandoval Tiết l…

DUBAI, Các Tiểu Vương Quốc Ả Rập Thống Nhất, ngày 28 tháng 5 năm 2025 (GLOBE NEWSWIRE) — Victor Sandoval, CEO của nhà sáng tạo blockchain EvianCX, đã tạo ấn tượng mạnh tại CryptoExpo Dubai 2025, diễn ra tại Trung tâm Thương mại Thế giới Dubai vào ngày 21–22 tháng 5.

May 28, 2025, 1:13 p.m.

Những mất việc của nhân viên văn phòng do tiến bộ…

Dario Amodei, CEO của Anthropic, một công ty trí tuệ nhân tạo nổi bật, đã đưa ra một cảnh báo nghiêm trọng về hậu quả có thể xảy ra của những tiến bộ nhanh chóng trong lĩnh vực AI.

May 28, 2025, 12:38 p.m.

Tài chính đã sẵn sàng cho một cuộc làm mới blockc…

Hệ thống tài chính hiện đại đang trải qua một cuộc kiểm tra căng thẳng căn bản, thách thức sự ổn định của nền kinh tế toàn cầu.

May 28, 2025, 11:31 a.m.

Các chatbot sử dụng trí tuệ nhân tạo nâng cao các…

Trí tuệ nhân tạo (AI) đang biến đổi nhiều khía cạnh của cuộc sống hàng ngày, nhưng các tội phạm mạng đang lợi dụng tiến bộ này để thúc đẩy các vụ lừa đảo qua email giả mạo.

May 28, 2025, 10:52 a.m.

Hiệp hội Blockchain kêu gọi SEC thận trọng hơn tr…

Hiệp hội Blockchain, đại diện cho các công ty tiền điện tử lớn như Coinbase, Ripple và Uniswap Labs, gần đây đã gửi bình luận chính thức tới Ủy ban Chứng khoán và Giao dịch Mỹ (SEC), hiện do Chủ tịch Paul S. Atkins lãnh đạo.

May 28, 2025, 9:46 a.m.

Vai trò của AI trong việc giải quyết các thách th…

Hội nghị Thượng đỉnh Tương lai Sức khỏe của Axios vào ngày 14 tháng 5 đã tập hợp các nhân vật hàng đầu trong ngành y tế để xem xét vai trò ngày càng lớn của trí tuệ nhân tạo (AI) trong việc giải quyết các thách thức về nhân lực kéo dài.

All news