Làm sao để suy tư khôn ngoan về AI

Làm sao để suy tư khôn ngoan về AI


Lex Fridman, nhà nghiên cứu AI tại trường MIT (đồng thời là chủ nhân của Podcast nổi tiếng mang tên mình), sau phần trao đổi với Sam Altman (người sáng lập Open AI, tổ chức tạo ra ChatGPT), đã gửi thông điệp cảnh báo AI sau đến khán giả: "đây là thời khắc quan trọng trong lịch sử của nền văn minh nhân loại, một cuộc chuyển hóa căn cơ toàn xã hội (fundalmental societal transformation) mà không ai đoán được sẽ diễn ra khi nào và theo kiểu gì, có lẽ sẽ diễn ra ngay trong thời đại chúng ta (our lifetime). Trí thông minh tổng hợp của con người (collective intelligence) đang dần trở nên mờ nhạt khi so sánh một số khía cạnh với siêu trí tuệ tổng hợp (general super intelligence) đang được xây dựng trong các hệ thống AI theo quy mô lớn (at scale). Điều này rất thú vị nhưng cũng cực kỳ đáng sợ. Nó thú vị vì một loạt các ứng dụng hữu ích đi kèm cho con người mà ta đã biết (như ChatGPT) và chưa biết, giúp tăng cường sức mạnh cho con người, khai mở thịnh vượng thoát đói nghèo, chạm nhanh hơn đến quyền mưu cầu hạnh phúc (pursuit of happiness). Nó đáng sợ vì siêu trí tuệ AGI có thể tập hợp sức mạnh để tiêu hủy nền văn minh con người một cách có chủ đích hoặc vô tình. Nó có thể triệt tiêu tinh thần của loài người như viễn cảnh chuyên chế mà George Orwell mô tả trong 1984 hay tạo ra thói đạo đức giả theo quy mô lớn (mass hysteria) trong tác phẩm "Brave New World" của Huxley, thế giới phản địa dàng nơi con người phải yêu lấy những kẻ đang ức hiếp mình và chìm đắm trong các công nghệ đang khiến năng lực tự thân mỗi người bị bào mòn, đặc biệt là khả năng tư duy." Lex nhấn mạnh các trao đổi với các chuyên gia, kỹ sư và triết gia quanh vấn đề AI, cả hai nhóm lạc quan và bi quan, là tối quan trọng ngay lúc này. Cụ thể, Lex đã từng trao đổi với Max Tegmark, chủ tịch của Future of Life Institute, một trong những người đề xuất lá thư mở kêu gọi ngăn chặn việc phát triển các hệ thống AI trong vòng 6 tháng - những công cụ có sức mạnh cao hơn GPT-4 và có thể được áp dụng theo quy mô lớn hơn. Nhân loại cần dành thời gian đánh giá thận trọng các "nguy và cơ" liên quan. Bài viết dưới đây của "The Economist" đề cập đến bức tranh lớn về các tranh cãi đang diễn ra, cũng như động thái chính sách liên quan của các chính phủ đến AI, rất đáng lưu tâm.

Bức thư mở của Future of Life Institute, một tổ chức phi lợi nhuận, đã xoáy vào một số câu hỏi hóc búa: "Liệu chúng ta có nên tự động hóa tất cả các công việc, bao gồm cả những thứ có ý nghĩa nhất với con người (fulfilling)? Liệu chúng ta có nên phát triển những bộ não phi con người (non-human) vượt trội trong tính toán hay với mức độ thông minh cao ... và thay thế dần dần chúng ta? Liệu có nên đánh cược rủi ro vào những thứ có thế khiến con người mất kiểm soát với nền văn minh?". Từng câu từng chữ trong bức thư nhằm kêu gọi một khoảng thời gian "tạm ngưng" (pause) phát triển các hình thức cao hơn của trí tuệ nhân tạo (AI) trong vòng 6 tháng. Thông điệp này được ký bởi những nhân vật công nghệ sừng sỏ, bao gồm cả Elon Musk. Đây là ví dụ điển hình nhất của bước tiến công nghệ nhanh chóng trong AI đã khích khởi nỗi lo lắng về các mối nguy tiềm tàng cho nhân loại.

Cụ thể hơn, mô hình ngôn ngữ lớn mới này (LLMs - large language models), sức mạnh đứng đằng sau ChatGPT (tạo bởi công ty khởi nghiệp OpenAI), đã gây kinh ngạc cho các nhà chế tạo (creators) với khả năng vượt ngoài mong đợi khi mô hình phát triển lên (scaled up). Cụ thể như hệ thống có khả năng giải quyết các bài đố logic hay viết mã máy tính (write code) hay xác định tên phim từ một số manh mối được viết ra kèm ký tự emoji.

Các mô hình này đã chuyển hóa hoàn toàn mối quan hệ giữa con người với máy tính, khả năng thu thập kiến thức và thậm chí với chính bản thân chúng ta. Những người ủng hộ AI nhấn mạnh tiềm năng giải quyết các vấn đề to lớn như phát triển các loại thuốc mới, thiết kế nguyên liệu mới giúp chống biến đổi khí hậu, hay để gỡ rối sự phức tạp của năng lượng nhiệt hạch (fusion power). Đối với nhóm còn lại, khả năng AI vượt trội hơn người tạo ra nó đã dẫn đến các liên tưởng thảm họa hay đề cập trong tiểu thuyết khoa học viễn tưởng: kiểu máy móc thống trị con người.

Sự hòa trộn lộn xộn giữa hứng khởi và nỗi sợ hãi khiến chúng ta rất khó để đánh giá các cơ hội và rủi ro liên quan. Tuy nhiên, luôn có những bài học rút ra từ các ngành khác, và từ các chuyển dịch công nghệ trong quá khứ. Điều gì đã thay đổi khiến AI trở nên ngày càng mạnh mẽ? Con người có nên lo sợ? Các chính phủ nên làm gì?

Làn sóng đầu tiên của hệ thống AI hiện đại, khởi phát cách đây một thập kỷ, dựa trên các dữ liệu huấn luyện được dán nhãn cẩn thận (labelled traning data). Khi đã tiếp xúc một số lượng đủ lớn các ví dụ, hệ thống có thể học để làm điều gì đó như nhận biết hình ảnh hay chép lại các đoạn hội thoại. Hệ thống hiện tại đã không còn cần phải dán nhãn trước đó (pre-labelling), bởi các kết quả có thể được huấn luyện qua việc tiếp cận lượng dữ liệu lớn hơn lấy từ các nguồn trực tuyến (online). LLM có thể được huấn luyện từ toàn bộ dữ liệu trên internet, điều này giúp lý giải năng lực của nó, thứ có thể dẫn tới cả điều tốt và xấu (good and bad).

Năng lực này đã trở nên rõ ràng hơn khi ChatGPT được công chúng tiếp cập rộng rãi trong tháng 11 vừa qua. Gần một triệu người đã sử dụng nó trong vòng một tuần và 100 triệu người trong hai tháng. Công cụ này đã nhanh chóng được sử dụng để tạo ra các bài luận trong trường học (essays) hay viết bài phát biểu đám cưới (wedding speeches). Sự phổ biến của ChatGPT cùng động thái tích hợp AI vào công cụ tìm kiếm của Microsoft, Bing, đã khiến các đối thủ khác cũng nhanh chóng cho ra đời chatbot của riêng mình. Một số công cụ đã tạo ra các kết quả lạ lùng. Bing Chat đã đề nghị một nhà báo hãy từ bỏ người vợ của mình. ChatGPT đã bị cáo buộc phỉ báng một giáo sư luật. LLM sản xuất ra các kết quả có phần nào sự thật trên bề mặt (patina of truth), nhưng thường chứa nhiều lỗi về thông tin (factual errors) hoặc cố tình thêu dệt thông tin (outright fabrications). Dù sao thì Microsoft, Google và các công ty công nghệ khác đã bắt đầu tích hợp LLM vào các sản phẩm của họ, nhằm giúp người dùng tạo ra các tài liệu và thực hiện nhiều tác vụ khác.

Các bước tiến gần đây về sức mạnh cũng như mức độ phổ biến của AI, đi kèm nhận thức về lợi - hại của công chúng tăng lên đã làm dấy lên nỗi sợ: công nghệ phát triển quá nhanh đến mức vượt tầm kiểm soát. Điều này đã tạo ra các lời kêu gọi ngăn chặn việc phát triển AI, nỗi lo lắng AI đe dọa công việc, danh tiếng, khả năng phân định chính xác thông tin của con người, thậm chí cả sự tồn vong của nhân loại đang ngày càng tăng. Nỗi sợ hãi máy móc lấy mất công việc đã tồn tại nhiều thiên niên kỷ. Tuy nhiên, cho đến hiện tại, các công nghệ mới cũng tạo ra việc làm mới thay thế cái cũ mà nó tiêu diệt. Máy móc có thể thực hiện một vài công việc, nhưng không phải là tất cả, còn nhiều việc khác phải chính tay con người xử lý. Liệu lúc này mọi thứ đã khác đi nhiều? Liệu một công cuộc dịch chuyển lớn trên thị trường lao động có thể diễn ra? Hiện tại cũng chưa có dấu hiệu gì rõ rệt. Các công nghệ trước đó luôn có xu hướng thay thế những công việc có kỹ năng kém, và hiện tại LLM đã có thể thực hiện một số công việc cổ cồn trắng như tổng hợp tài liệu và viết mã máy tính (writing code).

Mức độ của rủi ro sinh tồn mà AI tạo ra đang được tranh cãi kịch liệt, các chuyên gia luôn bị chia rẽ. Trong một khảo sát tiến hành năm 2022 của các nhà nghiên cứu AI, 48% cho rằng có ít nhất 10% AI sẽ gây ảnh hưởng cực kỳ tồi tệ (ví dụ như gây tuyệt chủng cho con người). Nhưng lại có 25% nói rủi ro là 0%; các nhà nghiên cứu trung lập đặt mức rủi ro là 5%. Cơn ác mộng về những cỗ máy AI nâng cao có thể gây nguy hại theo quy mô lớn, như chế tạo chất độc hay virus, hoặc thuyết phục con người thực hiện các hành vi khủng bố (terrorist acts). Hệ thống này cần phải bị loại bỏ những ý định xấu (evil intent): các nhà nghiên cứu lo lắng AI tương lai sẽ có những mục tiêu không đồng nhất với người tạo ra nó.

Cần xem xét kĩ các viễn cảnh tồi tệ trên, nhưng nên nhớ các chuyên gia cũng đang tham gia trò chơi phỏng đoán về bước nhảy công nghệ này. Nhiều người tin AI trong tương lai có thể tiếp cận không giới hạn (unfettered) tới năng lượng, tiền bạc và sức mạnh tính toán (computing power) - mà hiện nay đang có rất nhiều hạn chế - do đó rất có thể một số mô hình AI hắc ám (rogue AI) trong tương lai có thể bị cấm tiếp cận. Thêm nữa, các chuyên gia có xu hướng đề cao quá mức rủi ro trong địa hạt này so với những người dự báo khác (quý ngài Musk, cũng đang ra mắt một công ty khởi nghiệp AI của riêng mình, luôn quan tâm đến các công cụ của các đối thủ). Đề xuất các quy định điều chỉnh ngặt nghèo (heavy regulation), hoặc thậm chí ngưng các nghiên cứu AI có vẻ như là các phản ứng thái quá (over-reaction). Một cuộc ngưng trệ tiến trình AI là gần như không khả thi (unenforceable).

Các quy định là rất cần thiết, nhưng cần dựa trên các lý do hợp lý chứ không phải kiểu như để cứu rỗi lấy nhân loại. Các hệ thống AI đang tồn tại đã làm dấy lên các nỗi lo lắng quanh vấn đề thiên kiến (bias), các quyền riêng tư và sỡ hữu trí tuệ (intellectual-property). Khi công nghệ phát triển cao lên, các vấn đề khác sẽ lộ rõ ra. Điều mấu chốt chính là khả năng cân bằng những hứa hẹn hay ho của công nghệ với rủi ro đi kèm, và luôn sẵn sàng thích ứng mạnh mẽ.

Hiện tại thì các chính phủ đang tiến hành ba cách tiếp cận sau. Ở một đầu của phổ chính sách là nước Anh (Britain), quốc gia này đề xuất một lối tiếp cận "nhẹ nhàng" (ligh-touch): không có các quy định mới hay bộ khung quy định, mà chỉ áp các quy định đang có lên AI. Điều này nhằm mục đích thúc đẩy đầu tư và chuyển hóa nước Anh thành một "cường quốc AI". Nước Mỹ cũng có lối tiếp cận tương tự, mặc dù chính quyền Biden đang ra sức thu thập thông tin về cách thức thiết lập luật (rulebook) cho AI từ công chúng. EU lại chọn hướng đi khắt khe hơn. Các nước này đã đề xuất một số danh mục luật dành riêng cho các mục đích sử dụng AI khác nhau (law categorises), đòi hỏi một quá trình giám sát chặt chẽ liên tục và công bố các mức độ rủi ro gắn với các mục đích khách nhau - từ đề xuất nhạc (music recommendation) đến xe tự hành (self-driving cars). Một số mục đích sử dụng của AI đã bị cấm, ví dụ như đưa ra các quảng cáo chứa thông điệp ngầm (mà người dùng ko nhận ra - subliminal ads) và sinh trắc học từ xa (remote biometrics). Các công ty dám phá luật sẽ bị trừng phạt nặng nề. Với một số nhà phê bình, các quy định này quá sức ngột ngạt. Còn số khác lại xem cần phải nghiêm khắc hơn, chính phủ cần xem AI giống như dược phẩm, với những người làm luật chuyên biệt, các thử nghiệm ngặt nghèo đi kèm tiền chuẩn thuận (pre-approval) trước khi phát hành ra công chúng. Trung Quốc đang thực hiện điều này, các công ty tại đại lục phải đăng ký các sản phẩm AI và đi qua quá trình xem xét các vấn đề bảo mật ngặt nghèo trước khi phát hành. Tất nhiên, sự an toàn là động cơ kém quan trọng hơn lý do chính trị: nhà nước Trung Quốc phải đảm bảo các sản phẩm AI lấp lánh phản ánh giá trị cốt lõi của chủ nghĩa xã hội.

Tóm lại, chúng ta cần làm gì? Cách tiếp cận nhẹ nhàng có lẽ là không đủ. Nếu AI có tầm quan trọng giống như xe hơi, máy bay và dược phẩm - thì lý do này đủ tốt để chúng ta nỗ lực đưa ra các luật mới phù hợp. Có vẻ như cách tiếp cận của liên minh châu Âu EU là gần nhất với đường hướng này, mắc dù hệ thống phân loại AI vẫn mang tính quá đà (dựa trên nỗi sợ) thay vì dựa trên các nguyên tắc nền tảng (principles-based) đòi hỏi tính linh hoạt. Cách phù hợp nhất có lẽ là nên công bố một cách hợp lý các thông tin liên quan đến cách hệ thống được huấn luyện, cách thức vận hành và giám sát, kiểm soát - điều này khiến luật AI có điểm tương đồng với các ngành khác. Đồng thời cũng cho phép hình thành các quy định chặt chẽ hơn theo thời gian nếu cần. Khi đó, vai trò của các nhà làm luật tâm huyết sẽ trở nên phù hợp hơn, đi kèm với các hiệp ước liên chính phủ. Tương tự như cách chúng ta đối đầu với vũ khí hạt nhân, thứ gây ra mối lo sinh tồn cho nhân loại. Để dám sát rủi ro lớn này (nếu có), các chính phủ có thể hình thành nên một tổ chức (body) theo mô hình CERN, phòng thí nghiệm lớn chuyên nghiên cứu các hạt vật lý, để đào sâu vào sự an toàn của AI hay vấn đề đạo đức liên quan - đây là mảng mà các công ty ít có động lực để triển khai như kỳ vọng của xã hội.

Các công nghệ mới luôn chứa đựng các rủi ro, nhưng cũng đem đến các cơ hội phi thường, phải làm sao đưa quá trình phát triển nó vào ngưỡng cân bằng. Cách tiếp cận dựa trên quá trình đo lường kỹ lưỡng có thể cung cấp nền tảng (foundation) cho các luật lệ trong tương lai được thêm vào, đây là thứ cần được xây dựng ngay bây giờ.

[Hình minh họa - Vở Ballet 1984 của Northern Ballet - lấy cảm hứng từ tiểu thuyết của George Orwell]