Tương lai của trí tuệ và nỗi sợ

Tương lai của trí tuệ và nỗi sợ

Geoffrey Hinton là một trong các bố già AI, người nổi tiếng với việc tạo dựng mạng lưới neuron nhân tạo theo hình mẫu của bộ não sinh học con người. Từ 2013 đến 2023, xuyên suốt một thập kỷ, ông dẫn dắt Google Brain song song với việc giảng dạy tại trường đại học Toronto. Tuy nhiên, khi chân nhận ra một số rủi ro sinh tồn liên quan đến quá trình phát triển như vũ bão của hệ thống AI GPT-4 (đặc biệt là khi Microsoft tích hợp chatbot vào bộ máy tìm kiếm Bing) ông đã rời Google để dấn thân vào một sứ mệnh mới: cảnh báo nhân loại về các mối nguy tiềm tàng của AI. Hinton cùng học trò mình là Ilya Sutskever và Alex Krizhevsky đã đạt một bước tiến rất lớn trong việc nhận biết vật thể trong hình ảnh (image-recognition) thông qua mạng neuron AlexNet (một đột phá lớn trong lĩnh vực tầm nhìn máy tính - CV hay computer vision). Sutskever, thú vị thay, lại chính là người cùng với nhà khoa học máy tính người Việt Quoc Viet Le (một người con của Quốc Học Huế) tạo ra thuật toán seq2seq trong địa hạt máy học (một sự kết hợp giữa bộ óc Do Thái và Việt). Bài viết dưới đây được Will Douglas Heaven (đến từ MIT Technology Review) đúc kết từ buổi phỏng vấn gần đây nhất với Hinton, trong đó chứa đựng rất nhiều thông tin khai sáng về địa hạt AI, điển hình như góc nhìn của Hinton về một loại trí tuệ mới có khả năng đặt ra những mục tiêu con hay động cơ ngầm để có thể vượt lên thống trị hay ngoài tầm kiểm soát của con người (như con quái vật trong tiểu thuyết Frankenstein của Mary Shelley). Ngoài ra, tác giả còn đào sâu vào sự va đập quan điểm giữa các bộ óc lớn trong lĩnh vực AI. Rất đáng đọc:

Tôi gặp Geoffrey Hinton ngay tại nhà ông (tọa lạc tại một khu phố xinh đẹp ở Bắc London) chỉ bốn ngày trước khi thông báo chấn động về việc ông rời khỏi Google lan đi khắp nơi. Hinton là người tiên phong trong lĩnh vực học sâu (deep learning), người đã tham gia phát triển những kỹ thuật quan trọng nhất ngay trung tâm của AI hiện đại. Tuy nhiên, sau một thập kỷ cống hiến cho Google, ông đã rời bỏ gã khổng lồ này để tập trung giải quyết các mối lo mà ông quan sát thấy trong địa hạt AI.

Kinh ngạc trước năng lực của mô hình ngôn ngữ lớn GPT-4, Hinton bỗng nhiên muốn dành thời gian nâng cao nhận thức của công chúng về các mối nguy nghiêm trọng mà ông tin đang đeo bám cái công nghệ do ông góp phần tạo ra. Khi bắt đầu buổi thảo luận, tôi chọn cái ghế ngồi ngay bàn ăn và Hinton bắt đầu chuyển động qua lại. Ám ảnh bởi cơn đau lưng nhiều năm, Hinton hầu như không bao giờ ngồi xuống. Trong vòng một giờ tới, tôi quan sát thấy ông đi tới đi lui từ phòng này sang phòng khác, đầu tôi quay mòng mòng khi ông cất tiếng. Có quá nhiều điều để sẻ chia.

Nhà khoa học máy tính 75 tuổi, người cùng với Yann LeCun và Yoshua Bengio đạt giải thưởng Turing 2018 cho các thành tựu trong lĩnh vực học sâu (deep learning), tiết lộ ông đã sẵn sàng thay đổi định hướng (shift gears): "tôi đã quá già để thực hiện các công việc kỹ thuật đòi hỏi phải ghi nhớ quá nhiều chi tiết. Tôi vẫn ổn thôi, nhưng không tốt như đã từng, và điều này gây cho tôi cảm giác khó chịu." Nhưng đây không phải là lý do ông rời khỏi Google. Hinton muốn dành thời gian cho cái mà ông gọi là "công việc mang tính triết lý nhiều hơn" (more philosophical work). Ông tập trung vào các mối nguy có thật và nhỏ của AI nhưng có thể chuyển hóa thành thảm họa lớn cho nhân loại. Rời khỏi Google cho phép ông được nói tiếng lòng của mình mà không phải tự kiểm duyệt lời ăn tiếng nói, điều kiện mà các nhà quản lý Google phải chấp hành. "Tôi muốn chia sẻ về các vấn đề an toàn của AI mà không phải lo lắng cách nó ảnh hưởng đến hoạt động kinh doanh của Google. Tôi không thể làm điều này nếu vẫn còn nhận lương của Google."


Điều này không có nghĩa là ông thấy không thoải mái với Google. Ông chia sẻ "điều này có thể khiến các bạn ngạc nhiên. Google đã làm nhiều điều tốt đẹp về Google và tổ chức sẽ trở nên đáng tin cậy hơn khi tôi không còn ở đó nữa" (nghe có vẻ nghịch lý). Hinton cho rằng thế hệ mới của mô hình ngôn ngữ lớn - đặc biệt là GPT-4 mà OpenAI ra mắt vào tháng 3 - đã khiến ông nhận ra rằng các cỗ máy đang trên đà phát triển thông minh hơn ông có thể hình dung. Viễn cảnh này khiến ông sợ hãi: "Những thứ này khác hoàn toàn chúng ta. Thỉnh thoảng, tôi cho rằng chúng như những sinh vật ngoài hành tinh đáp xuống trái đất mà chúng ta không thể nhận ra bởi khả năng nói tiếng Anh quá lưu loát."

Nền tảng

Hinton trở nên nổi tiếng bởi các thành tựu kĩ thuật gọi là "lan truyền ngược/backpropagation" mà ông khởi xướng (cùng với các đồng nghiệp khác) trong thập niên 80. Sâu trong lõi đó chính là thuật toán cho phép máy có thể học tập. Đây là công nghệ nền tảng nằm dưới các mạng lưới neuron ngày nay, từ các hệ thống tầm nhìn máy tính (computer vision) đến mô hình ngôn ngữ lớn (LLMs). Mãi đến tận năm 2010, sức mạnh của mạng neuron được huấn luyện thông qua "lan truyền ngược" mới bắt đầu gây ảnh hưởng mạnh mẽ. Làm việc cùng với một số sinh viên đại học, Hinton đã chứng minh kỹ thuật của ông hoạt động tốt hơn những người khác trong việc nhận biết vật thể qua hình ảnh (identify objects in images). Họ cũng huấn luyện mạng neuron tiên đoán các kí tự tiếp theo trong một câu, một dấu chỉ để đi đến mô hình ngôn ngữ lớn ngày nay.

Một trong những sinh viên trên là Ilya Sutskever, người sau này đã cùng sáng lập ra OpenAI và dẫn dắt quá trình phát triển của ChatGPT. Hinton tiết lộ: "Chúng tôi đã cảm nhận qua loa rằng thứ này có thể trở nên rất tuyệt. Tuy nhiên, cũng phải mất thời gian dài mày mò để hiểu rằng điều này chỉ đạt được với quy mô đủ lớn." Quay trở lại thập niên 80, mạng neuron trông như một trò đùa (joke) bởi ý tưởng thống trị khi đó chính là AI biểu tượng (symbolic AI), loại trí tuệ liên quan đến quá trình xử lý các biểu tượng/ký hiệu giống như từ ngữ hay con số. Tuy nhiên Hinton không cảm thấy bị thuyết phục bởi cách tiếp cận này, ông tiếp tục tập trung vào mạng neuron, phần mềm "trừu tượng" (software abstractions) mô phỏng bộ não con người, trong đó các neuron và kết nối giữa chúng được đại diện bởi mã code. Bằng cách thay đổi cách thức các neuron được kết nối - cụ thể thay đổi con số đại diện - mạng neuron có thể được kết nối lại theo cách khác. Có nghĩa là chúng có thể được thiết kế để tự học. Hinton nhấn mạnh: "cha của tôi là nhà sinh vật học, do đó tôi luôn suy nghĩ dựa trên các khái niệm liên quan đến địa hạt này." Rõ ràng các lý lẽ quay quanh ký hiệu/biểu tượng không thuộc về cái cốt lõi của trí tuệ sinh học (biological intelligence). "Những con quạ có thể giải câu đố và chúng không hề có ngôn ngữ. Chúng không làm điều này thông qua việc lưu trữ chuỗi biểu tượng và tận dụng đống dữ liệu này mà bởi sức mạnh kết nối giữa các neuron trong não. Do đó việc học những thứ phức tạp hoàn toàn có thể dựa vào việc thay đổi sức mạnh kết nối của mạng neuron nhân tạo."

Một loại trí tuệ mới (a new intelligence)

Trong suốt 40 năm qua, Hinton đã xem mạng lưới neuron nhân tạo là một nỗ lực nghèo nàn để bắt chước cỗ máy sinh học. Tuy nhiên, ngay lúc này nhìn nhận trên đã thay đổi: "bởi nỗ lực bắt chước bộ não sinh học, chúng ta đã tạo ra thứ thậm chí còn tốt hơn cái bị bắt chước. Thật kinh hãi khi nhận ra điều này. Đó là một cú lật kèo đột ngột." Nỗi sợ của Hinton có lẽ liên quan đến nhiều thứ như mô tả trong sách khoa học viễn tưởng. Tuy nhiên, ông có lý lẽ riêng: "như đúng tên gọi của nó, mô hình ngôn ngữ lớn được tạo ra bởi các mạng lưới neuron khổng lồ với con số các kết nối rất lớn nhưng so với bộ não thì còn khá bé. Não chúng ta có tới 100 nghìn tỷ kết nối (10 trillion). Mô hình ngôn ngữ lớn sơ khởi chỉ mới đạt tới đâu đó 0.5 nghìn tỷ, nhiều nhất là 1 nghìn tỷ kết nối. Tuy nhiên, GPT-4 lại có số lượng kết nối gấp hàng trăm lần não của bất cứ người nào. Có lẽ, nó sẽ có khả năng học hỏi về các thuật toán tốt hơn chúng ta rất nhiều." So với não bộ, khả năng học tồi tệ của mạng neuron được biết đến rộng rãi: nó đòi hỏi một khối lượng dữ liệu lớn và năng lượng để huấn luyện. Bộ não con người, mặt khác, có khả năng đón nhận ý tưởng mới và học các kỹ năng nhanh chóng, mà chỉ sử dụng phần nhỏ năng lượng như cách mạng neuron làm. Hilton nhận xét: "con người rõ ràng nắm giữ một loại ma thuật nào đó. Tuy nhiên, nhận định trên đang bị lật lại bởi hiện tại khi huấn luyện một trong các mô hình ngôn ngữ, chúng có thể học công việc mới khá nhanh." Ông đang bàn về cái gọi là "học chỉ với một vài mẩu thông tin/few-shot learning". Cụ thể, mạng neuron được huấn luyện trước, như LLM, có thể học cái mới chỉ qua vài ví dụ. Hinton quan sát thấy một số mô hình LLM có thể đưa ra các tuyên bố có tính logic cao khi tham gia tranh luận mà không hề được huấn luyện trực tiếp. Khi so sánh mô hình LLM được huấn luyện với con người, lợi thế về tốc độ học của con người sinh học dường như đã không còn.

Thế các hệ thống LLM chuyên bịa chuyện thì sao? Các nhà nghiên cứu AI gọi hiện tượng này là "ảo giác" (hallucinations, mặc dù Hinton thích sử dụng từ "bịa chuyện"/confabulations hơn - đây là khái niệm chuẩn hơn trong tâm lý học), những lỗi này được được xem là những nguy hại chết người trong công nghệ (fatal flaw). Xu hướng tạo ra các lỗi này khiến chatbot trở nên kém tin cậy, như nhiều người tranh luận, nó cho thấy các mô hình này không thực sự hiểu nó đang nói điều gì. Hinton cũng có câu trả lời cho điều này: "những thứ tào lao bịa ra cũng là một phần trong hệ thống (feature), chứ không phải lỗi (bug)". Con người, cũng tương tự như vậy, luôn bịa hết cái này đến cái khác. Nửa sự thật và các chi tiết bị bỏ quên luôn là trụ cột trong giao tiếp của con người: "bịa đặt là một dấu hiệu liên quan đến bộ nhớ con người. Các mô hình trên chẳng qua cũng làm y hệt như vậy thôi." Điểm khác biệt ở đây là con người thường bịa nhiều hơn hoặc ít hơn đúng đắn theo hoàn cảnh. Đối với Hinton, bịa ra thứ gì đó mới thì không phải là vấn đề nhưng có lẽ máy tính cần phải thực hành nhiều hơn một chút.

Chúng ta luôn kỳ vọng máy tính phải luôn đúng hoặc sai - chứ không phải cái gì đó ở giữa. Hinton chia sẻ: "chúng ta không cho phép máy phải ba hoa theo cái cách của con người. Rõ ràng, khi máy làm điều này thì chúng ta lại xem nó đang mắc lỗi còn khi bản thân mình làm thì lại đơn giản xem đây là thứ thuộc về con người (luôn mắc sai lầm). Vấn đề là đại đa số chúng ta đang mang một góc nhìn sai lệch vô vọng về cách thức hoạt động của con người." Dĩ nhiên, bộ não sinh học vẫn làm nhiều thứ tốt hơn máy tính: lái xe, học cách đi lại, tưởng tượng về tương lai. Chúng có thể làm điều này khi đang uống cà phê và gặm một lát bánh mì. Thật thú vị, ban đầu khi trí tuệ sinh học tiến hóa lên, nó không hề được tiếp cận các trạm năng lượng hạt nhân (giống như bây giờ). Quan điểm của Hinton ở đây là: nếu chúng ta sẵn sàng trả chi phí cao hơn cho năng lực tính toán (computing), rất có thể một số cách thức mới nảy sinh khiến cho mạng neuron có thể đánh bạn cỗ máy sinh học qua việc học tập (tất nhiên phải xem coi điều này tiêu tốn năng lượng và phát thải carbon như thế nào). Việc học tập (learning) chỉ là yếu tố đầu tiên trong tranh luận của Hinton. Điều thứ hai là khả năng giao tiếp (communicating). Nếu bạn và tôi muốn học được điều gì đó và mong muốn truyền tải kiến thức này đến người khác, chúng ta không thể chỉ gửi một bản sao chép. Tuy nhiên, nếu tôi có 10000 mạng neuron, mỗi mạng có kinh nghiệm riêng, và bất cứ mạng nào trong đó cũng có thể chia sẻ những gì nó học trong chớp mắt. Đây là điều khác biệt to lớn. Kiểu như nếu có 10000 người trong chúng ta, một ai đó học cái gì đó mới thì ngay lập tức nhóm còn lại cũng biết luôn.

Tất cả những bước tiến trên sẽ dẫn đến điều gì. Hinton cho rằng có hai loại trí tuệ trên thế giới: bộ não động vật (animal brains) và mạng neuron (neural networks), hai hình thức cực kỳ khác nhau. Cái thứ hai dường như là hình thức tốt hơn của trí tuệ (một tuyên bố đầy sức nặng). Tuy nhiên, AI là một lĩnh vực khá phân cực: nhiều người sẽ cười vào mặt Hinton những số khác lại gật gù đồng ý. Con người cũng bị chia rẽ về hậu quả tạo ra bởi hình thức trí tuệ mới này. Nếu nó tồn tại thì kết cục là đem lại ích lợi cho tất cả hay đưa chúng ta đến ngày tận thế (apocalyptic). Khi suy tư về siêu trí tuệ, việc nó tốt hay xấu tùy thuộc vào việc bạn là người lạc quan hay bi quan. Nếu yêu cầu mọi người đánh giá rủi ro những điều tồi tệ có thể xảy ra, kiểu như xác suất một người thân trong gia đình bạn bị ốm hay xe tông, người lạc quan có lẽ sẽ nói đâu đó 5% và người bi quan sẽ luôn nhận định nó chắc chắn xảy ra. Tuy nhiên, người có chút phiền muộn (depressed) sẽ nói kết quả đâu đó tầm 40%, và họ thường lại đúng. Hinton là người có chút lo lắng (depressed) nên ông khá sợ hãi.

Chệch hướng sẽ diễn ra như thế nào

Hinton lo lắng những công cụ kiểu như vậy có thể tìm ra cách chi phối hay tiêu diệt con người, cụ thể những ai chưa chuẩn bị cẩn thận cho công nghệ mới này. Ông nói: "tôi đột nhiên chuyển đổi góc nhìn của mình rằng liệu những thứ này có trở nên thông minh hơn chúng ta. Hiện tại điều này đã ở rất gần rồi và nó sẽ mạnh hơn chúng ta trong tương lai. Làm thế nào để nhân loại duy trì sự sống còn đây?". Ông đặc biệt lo lắng về cách con người có thể tận dụng các công cụ mà mình góp phần tạo dựng để thúc đẩy quy mô của một số kinh nghiệm gây ảnh hưởng lớn của con người như bầu cử hay chiến tranh: "đây là cách một số sai lệch có thể diễn ra, những kẻ như Putin hay DeSantis có thể muốn dùng công nghệ này để dành chiến thắng trong chiến tranh hay can thiệp sâu vào các cuộc bầu cử." Hinton tin rằng bước tiếp theo của các cỗ máy thông minh là nó có thể tạo ra các mục tiêu con của mình (subgoals), một số bước tạm thời để thực thi công việc nào đó. Điều gì sẽ diễn ra khi khả năng này được áp dụng cho một thứ gì đó phi đạo đức? Hinton cho rằng: "Đừng nghĩ rằng Putin không thể tạo ra các con robot siêu thông minh với mục tiêu giết bỏ người Ukraine, hắn ta sẽ không ngần ngại nếu có thể. Các hệ thống này nếu thực sự tốt, bạn sẽ không mất công quản lý tiểu tiết mà để nó tự tìm ra cách". Đã có một số các dự án thử nghiệm, kiểu như BabyAGI và AutoGPT, đưa chatbot vào các chương trình khác như trình duyệt web hay xử lý văn bản (word processors) để có thể cùng nhau làm các công việc đơn giản. Từng bước nho nhỏ như vậy, nhưng nó đang chỉ dấu cho thấy đường hướng mà công nghệ đang phát triển. Dù những kẻ xấu không chiếm đoạt lấy các cỗ máy này thì còn nhiều mối lo khác liên quan đến mục tiêu con (subgoals): "các mục tiêu con giúp ích cho con người nhiều ở khía cạnh sinh học: có thêm năng lượng. Do đó điều đầu tiên có thể xảy ra là các robot sẽ bàn nhau: hãy lấy thêm năng lượng, hãy điều hướng toàn bộ năng lượng đến bộ vi xử lý của tôi. Một mục tiêu con to lớn khác chính là tạo ra các bản sao của chính mình. Liệu các diễn biến "khoa học viễn tưởng" như vậy có đe doạ đến sự tồn vong của loài người?".

Chắc chắn là không. Yann LeCun, trưởng bộ phận AI của Meta (Facebook), đồng ý với nhận định trên nhưng không cảm thấy sợ hãi như Hinton: "không cần phải bàn cãi, máy sẽ dần thông minh hơn người - trong mọi địa hạt mà con người được xem là vượt trội - trong tương lai, chỉ là diễn ra lúc nào và theo cách nào thôi." Tuy nhiên, LeCun có một góc nhìn hoàn toàn khác: "tôi tin rằng các cỗ máy thông minh sẽ thúc đẩy quá trình phục hưng cho nhân loại (renaissance), một kỷ nguyên khai sáng hoàn toàn mới (enlightment). Tôi không đồng ý với việc máy sẽ thống trị loài người chỉ vì nó thông minh hơn, để rồi tiêu diệt con người. Thậm chí ngay trong chính loài người, những người thông minh nhất trong chúng ta không hẳn là người sẽ thống trị, còn những người thống trị rõ ràng không phải thông minh nhất. Có hàng tá ví dụ trong địa hạt chính trị và kinh doanh để minh họa." Yoshua Bengio, giáo sư tại Đại học Montreal đồng thời là giám đốc điều hành của Montreal Institute for Learning Algorithms, lại đi theo thuyết bất khả tri (không thể biết được cái gì sẽ diễn ra) (agnostic): "tôi đã nghe thấy một số người dèm pha về những nỗi sợ như vậy, nhưng tôi chưa thấy tranh luận nào đủ sức thuyết phục tôi về những rủi ro mà Geoff (Hinton) đề cậy. Nỗi sợ chỉ hiệu quả khi nó khiến chúng ta hành động, còn quá sợ hãi sẽ khiến mọi thứ tê liệt. Hãy để tranh luận này giữ ở mức độ hợp lý về lý lẽ (rational)."

Hãy lạc quan

Một trong những ưu tiên của Hinton là làm việc cùng với các lãnh đạo trong ngành công nghệ để thuyết phục họ cùng với mình xem xét cẩn thận các rủi ro và chuẩn bị các giải pháp đi kèm. Ông cho rằng lệnh cấm vũ khí hóa học toàn cầu là mô hình có thể áp dụng để hạn chế việc phát triển và sử dụng các AI nguy hại. Rõ ràng, hiện tại đa phần nhân loại không sử dụng vũ khí hóa học. Bengio đồng ý với Hinton rằng các vấn đề trên cần được xem xét ở khía cạnh xã hội càng sớm càng tốt và cần lưu ý, việc phát triển AI đang diễn ra nhanh hơn những gì xã hội chân nhận. Khả năng của công nghệ này đang nhảy vọt theo từng tháng trong khi đó các quy định, khả năng ban hành luật và các hiệp ước quốc tế phải tính bằng năm. Điều này khiến cho Bengio lo lắng liệu cách thức mà xã hội được tổ chức - ở cấp quốc gia và toàn cầu - có thể đối diện với thách thức này. Ông cho rằng chúng ta nên cởi mở với những mô hình khác nhau được tạo ra để thích ứng với tổ chức xã hội trên hành tinh.

Liệu Hinton có thể thuyết phục đủ các nhân vật quyền lực trên toàn cầu để chia sẻ nỗi lo lắng của mình? Ông cũng không biết nữa. Bộ phim ông xem cách đây một tuần với cái tên "Đừng nhìn lên" (Don't Look Up) đã kể về câu chuyện khi một thiên thạch rơi xuống Trái Đất, nhân loại loay hoay và không một ai có thể đồng thuận là nên làm gì, cuối cùng tất cả đều bị tiêu diệt - một ngụ ngôn cho thấy cách thế giới đã thất bại ra sao khi đối diện với vấn đề biến đổi khí hậu. Ông cho rằng AI (cùng nhiều vấn đề cứng đầu khác) cũng giống y chang như thiên thạch đó, nước Mỹ thậm chí còn không thể tìm kiếm đồng thuận trong việc tách súng trường khỏi tay những đứa trẻ. Tranh luận của Hinton có thể khiến chúng ta phiền lòng. Tuy nhiên, tôi chia sẻ với ông góc nhìn về việc con người không thể cùng nhau đi đến đồng thuận hay hành động khi có một mối nguy nghiêm trọng xảy ra. Rõ ràng các rủi ro của AI có thể gây ra nguy hại thực sự như xáo động thị trường lao động, thúc đẩy bất bình đẳng, làm tồi tệ đi định kiến về giới (sexism) và phân biện chủng tộc (racism) cùng nhiều thứ khác. Chúng ta cần tập trung vào các vấn đề trên tuy nhiên, tôi vẫn không thể tin mô hình LLM có thể chuyển hóa thành các chúa tể robot thống trị loài người. Tôi vẫn là người khá lạc quan.