Liệu nhân loại có tự tay hủy diệt chính mình

Liệu nhân loại có tự tay hủy diệt chính mình

Hồi nghe bài TED của giáo sư Martin Rees về đề tài “Thế kỉ cuối cùng của chúng ta” – mình đã nhen nhóm một ước muốn nho nhỏ, nhất định phải đến đại học Cambridge ở Anh để tìm nghe bài giảng của ông (hoặc của Stephen Hawking) – một đại sư về vũ trụ học, một tư tưởng lớn có thể phóng chiếu tới nhiều khía cạnh ngoài “khoa học vũ trụ” như triết học, xã hội và chính trị. Ông là thành viên của Hiệp hội Hoàng Gia Các Nhà Vũ Trụ Học của Anh, đồng thời là giáo sư về vật lý thiên thể và vũ trụ hàng đầu ở Cambridge (Cosmology & Astrophysics) – một người đã truyền cảm hứng cho mình nghiên cứu về các xu hướng tương lai. Tình cờ hôm nay tìm đọc được một bài phỏng vấn rất thú vị với ông trong mục “Tương Lai Mở” của The Economist – dù khá bận nhưng mình cũng ráng dành một chút thời gian để lược dịch lại lời vàng ngọc của ông. Sự chân nhận một góc nhìn “sâu sắc” nào đó cũng có thể làm mình rất hạnh phúc.

Giáo sư Martin Lees là tiếng nói vô cùng quan trọng cổ súy cho vai trò của khoa học trong xã hội. Với địa vị của mình ở Cambridge, ông đã thành lập một trung tâm để nghiên cứu về các mối hiểm họa tới sự sống còn của nhân loại – ông đã phục vụ ở đây với tư cách là người cổ động, người truyền bá, người lý giải các khía cạnh đạo đức của dấn thân khoa học – nỗ lực này vượt lên trên cả lĩnh vực chuyên môn của ông là “vật lý thiên thể”.

Trong cuốn sách “Thế kỉ cuối cùng” phát hành năm 2003 (sau đó đổi tên thành “Giờ Cuối Cùng” trong bản in ở Mỹ) – ông đã nêu ra một loạt các thách thức toàn cầu, từ khủng bố sinh học đến vũ khí hạt nhân. Trong đó nguy cơ tuyệt chủng của loài người vào năm 2100 xuất phát từ chính công nghệ mà họ tạo ra có xác suất khoảng 50%. Trong cuốn sách mới phát hành gần nhất mang tên “Về tương lai”, góc nhìn của ông có vẻ đã trở nên lạc quan hơn. Ngoài việc đề cập đến các nguy cơ tương tự, ông cũng nhấn mạnh khía cạnh tích cực của công nghệ trong việc cải thiện cuộc sống của chúng ta – như các ứng dụng của Trí tuệ nhân tạo (AI).

Sáng kiến Tương Lai Mở của The Economist đã đặt câu hỏi cho Giáo sư quanh các đề tài: nhân loại, người ngoài hành tinh và các khám phá khoa học. Cụ thể hơn, chúng tôi đã cùng trao đổi cái cách mà nhân loại chuẩn bị cho việc liên lạc với các thực thể ngoài hành tinh ở hai khía cạnh: tinh thần (mental) và định chế (luật, phong tục và thực hành) – một cách để tư duy lại về chủ nghĩa tự do (liberalism) trong một chiều kích to lớn hơn. Ông giữ một phong thái điềm tĩnh. Mặc dù tin vào sự tồn tại của các thực thể sống khác nhưng ông hiểu chúng có thể khác biệt với con người tới mức không thể hiểu được. “Tôi chắc chắn không trông đợi một cuộc xâm lăng bởi các sinh vật xanh lá hai chân có con mắt nằm trên thân.” Buổi phỏng vấn cũng nêu ra nhiều trích dẫn về các nguy cơ sinh tồn của nhân loại trong cuốn sách mới nhất của ông.

The Economist: Đâu là mối nguy ngắn hạn lớn nhất cho nhân loại thưa ông? Và chúng ta phải làm gì để giảm thiểu tác hại của nó?

Mr Rees: Chỉ trong một hay hai thập kỉ tới, công nghệ sẽ phá bỏ mọi khuôn mẫu công việc, nền kinh tế của quốc gia và các mối quan hệ quốc tế. Những người thay đổi cuộc chơi thực sự sẽ là một nhóm nhỏ (hoặc thậm chí chỉ một cá nhân) được tăng cường sức mạnh bởi hiểu biết về công nghệ số hay sinh học – họ bằng việc mắc lỗi hay thiết kế một hệ thống nào đó – có khả năng đả phá các cấu trúc cũ theo diện rộng (massive disruption). Những ngôi làng ngu ngốc (village idiots) trong ngôi làng toàn cầu giờ đây đã có quy mô phủ khắp hành tinh. Các quy định hay luật lệ được áp đặt không thể nào thực thi theo quy mô toàn cầu, ảnh hưởng của chúng không thể hơn cái cách mà luật thuế (tax law) và luật quản lý thuốc (drug law) có thể làm. Việc quản trị quốc gia sẽ bị thách thức bởi sự căng thẳng ngày càng tăng giữa sự tự do, quyền riêng tư và việc đảm bảo an ninh. Trong một kỉ nguyên mà chúng ta đang trở nên kết nối với nhau, khi mà những người yếu thế có thể nhận ra tình trạng khó khăn của họ, khi mà việc di cư trở nên dễ dàng, rất khó để ta có thể lạc quan về một thế giới hòa bình nếu các vết nứt sâu thẳm trên còn tồn tại, sâu như chính hình thái địa chính trị ngày hôm nay, giữa mức độ phúc lợi khác nhau hay cơ hội kinh tế/cuộc đời ở các phần khác nhau trên thế giới.

The Economist: Liệu chúng ta có thể điều phối Trí tuệ nhân tạo (AI) một cách có ý nghĩa để giúp loại bỏ những lo lắng mà Stephen Hawking, Elon Musk hay những người khác từng đề cập hay không?

Mr Rees: Tôi không phải là một chuyên gia về AI – và Elon Musk hay người đồng nghiệp cũ của tôi Stephen Hawking cũng vậy. AI có vẻ rất phù hợp để quản lý các mạng lưới phức tạp với sức tăng trưởng nhanh chóng như lưới điện hay các luồng giao thông. Nó có thể cho phép tạo ra một nền kinh tế kế hoạch hóa kiểu mà Marx luôn mơ ước. Nhưng liệu chúng ta có thực sự hạnh phúc khi AI ra những quyết định có khả năng ảnh hưởng sâu sắc đến bản thân mình. Như khi ta bị kết tội phải ở tù – một bối cảnh khiến ta đứng trước nhiều đề xuất luận tội hay sự suy giảm uy tín cá nhân – bạn buộc phải tự đứng ra giải thích – hay bảo vệ quyền được tranh biện. Rõ ràng, một thuật toán bí ẩn trong một hộp đen nào đó liệu có thể thu thập đủ các bằng chứng/lý lẽ hơn một con người cụ thể.

Tuy nhiên, tôi nghĩ rằng những lo lắng “khải huyền” về việc AI sẽ thay thế con người đều dựa trên sự lạc quan thái quá về cách mà các cỗ máy có thể phản ứng hay đối phó với thế giới thực, cũng như dựa trên sự tương đồng phi lý với thuyết tiến hóa của Darwin mà trong đó đề cao trí thông minh đi cùng sự hung hãn. Máy móc có thể tiến hóa bằng các thiết kế thông minh mà không nhất thiết phải có tính hung hãn. Tôi cho rằng không có gì phải lo lắng về AI trong nhiều thập kỉ tới.

The Economist: Chúng ta cần phải chuẩn bị tâm thế như thế nào cho những kết nối tiềm năng với các thực thể sống khác ngoài vũ trụ?

Mr Rees: Câu hỏi “liệu chúng ta có cô độc”đã lôi cuốn rất nhiều người. Tôi nghĩ rằng nỗ lực tìm kiếm SETI (Trí thông minh ngoài hành tinh) là rất xứng đáng mặc cho những trở ngại nặng nề trong việc thăm dò. Tôi là chủ tịch của một nhóm cố vấn cho dự án “Lắng nghe Bứt phá” của Yuri Milner chuyên tìm SETI nhưng vẫn chưa có tín hiệu thành công nào.

Chỉ trong vòng 20 năm, các nhà hóa sinh có lẽ đã hiểu được cách mà sự sống trên Trái Đất bắt đầu – và cách mà chúng dường như có thể tiến hóa ở những nơi khác trong vũ trụ. Ngành phổ quang học (spectroscopy) với sự đóng góp của các kính viễn vọng đã giúp thu thập nhiều bằng chứng về sự quang hợp (photosynthesis) trên các hành tinh quay quanh các ngôi sao khác. Nhưng ngay cả khi một sự sống đơn giản được chứng minh là có thể lan rộng, chúng tôi cũng không thể minh chứng được chúng sẽ tiến hóa thành một hình thức nào có “trí tuệ” trong đó (intelligent). Nếu như chúng tôi có thể thăm dò được bất cứ một hình thức chuyển hóa nhân tạo hiển nhiên nào từ không gian sâu thẳm thì chúng dường như vẫn rất xa vời với việc tìm ra một “sự thông minh” điện hóa (electronic intelligence) xuất thân từ nền văn minh hữu cơ (tập hợp các sinh vật – organic civilisation) nào đó vốn bị ruồng bỏ từ lâu (như nó có thể xảy ra với con người trong tương lai xa) và nó cũng không phải kiểu “hung hãn” hay ẩn chứa các thông điệp có ý nghĩa.

The Economist: Tôi muốn nhấn mạnh với ông điều này. Nếu trí tuệ ngoài hành tinh chạm đến chúng ta, nhiều câu hỏi lớn sẽ xuất hiện. Ai sẽ là người đại diện cho nhân loại chúng ta? Điều này có ý nghĩa như thế nào với các tôn giáo? Liệu sự phân biệt sắc tộc trên Trái Đất sẽ biến mất khi chúng ta đối diện với các sinh vật chỉ có trong tiểu thuyết? Và có khi nào – ông đã từng nghĩ về điều này?

Mr Rees: Tôi dĩ nhiên là đã suy tư và trao đổi về vấn đề này rất nhiều lần. Như tôi đã giải thích trong cuốn sách, rằng nếu như chúng ta có thể thăm dò bất cứ “tín hiệu” nào – nó sẽ không giống như thuộc về một nền văn minh nào đó mà sẽ ở dưới dạng một tín hiệu điện não đơn lẻ rất khác biệt mà chúng ta hầu như không có một ý niệm nào về động lực của nó. Đây là một tranh luận rất được ưa thích, thời gian của Trái Đất có thể chia ra: 4 tỷ năm của những sinh vật phi thông minh, khoảng vài nghìn năm của nền văn minh công nghệ và sau đó hàng tỷ năm tiến hóa hậu con người do các trí thông minh điện hóa vận hành mà không cần một môi trường thích hợp. Dường như việc quan tâm đến “một Trái Đất thứ hai” sẽ đồng bộ hóa với chúng ta đã trở nên không cần thiết trong một khung thời gian ngắn ngủi. Tôi dĩ nhiên là không trông đợi một cuộc xâm lăng bởi những sinh vật màu xanh hai chân có các con mắt nằm trên thân hình!

The Economist: Có vẻ như thỉnh thoảng vai trò của khoa học trong xã hội đang đi những bước lùi cụ thể như: những người chống lại khái niệm thay đổi khí hậu, các chỉ trích về vaccin, các chuyên gia bị từ chối … Liệu chúng ta có thể làm điều gì thực tế để đảo ngược điều này?

Mr Rees: Tôi sẽ không để mình trở thành một nhà phê bình khó tính. Luôn có lý do hợp lý để nghi ngờ một điều gì đó, chẳng hạn, các tiên đoán kinh tế! Nhưng việc lựa chọn các thách thức xã hội trọng yếu là rất quan trọng – thứ luôn liên quan đến khoa học: năng lượng, sức khỏe, tự động hóa (robot), môi trường, không gian và nhiều thứ khác – không thể chỉ được thực hiện bởi các nhà khoa học: họ rất quan trọng với chúng ta và nên là thành quả từ tranh luận rộng lớn của công chúng. Để điều này xảy ra, chúng ta cần phải có cảm giác đầy đủ về các ý tưởng chính yếu của khoa học cũng như khả năng tính toán nhất định để có thể tự giải quyết các trở ngại, đối điện với sự không chắc chắn, phân tích rủi ro, và vì vậy sẽ không bị lừa bịp bởi các chuyên gia hoặc bị lôi cuốn bởi sự nhẹ dạ của đám đông thích hô hào khẩu hiệu.

Đó là lý do tại sao việc giáo dục khoa học là tối cần thiết cho mọi người, và tại sao các nhà khoa học nên gắn kết nhiều hơn với công chúng và với các nhà chính trị. Chúng ta nên duy trì sự hăng hái với khoa học và công nghệ, mặc dù công chúng luôn có quyền: hướng nỗ lực tới một vài mục tiêu nào đó và tránh khỏi các thứ khác. Việc thực hành mạnh mẽ các “nguyên tắc cẩn trọng” (precautionary principle) cũng có khuyết điểm của riêng của nó – kiềm chế những hành động bứt phá chỉ vì nó có khả năng gây hại.

The Economist: Có phát minh hay khám phá nào mà ông ước là nó sẽ xảy ra trong cuộc đời mình, dù bây giờ điều đó vẫn chưa diễn ra?

Mr Rees: Ở góc nhìn của một nhà khoa học không gian, khám phá số một là sự sống bên ngoài hành tinh, thậm chí là chỉ ở trong một trạng thái “sơ khởi”. Nhưng tôi thì quá già để có thể trông đợi điều này xảy ra trong đời mình. Điều cốt yếu mà chúng tôi chân nhận ra được là phải làm sao tạo ra một trật tự trong đó cho phép các cải tiến quan trọng được diễn ra. Ví dụ như, AI nâng cao (nếu giữ nó trong một cái hộp) có thể giúp chúng ta trong công cuộc khám phá khoa học, và với việc tổ chức các hạ tầng của xã hội. Thật tiếc là chúng ta vẫn chưa tìm thấy. Một ví dụ khác là sự phát triển của carbon “sạch” – nguồn năng lượng tự do này vẫn không được ưu tiên sớm hơn, thật đáng tiếc nếu không chúng ta có thể đã có nguồn năng lượng hiệu quả thay thế cho năng lượng hóa thạch. Điều này giúp chống lại sự gia tăng carbon dioxide tới mức có thể đe dọa vượt ngưỡng báo động.

Các hiểm họa sống còn thực sự

Đoạn trích từ cuốn sách “Về tương lai: Viễn cảnh của nhân loại” – Princeton University Press, 2018

Thế giới của chúng ta đang ngày càng phụ thuộc vào các mạng lưới phức tạp: lưới điện, hệ thống điều khiển giao thông, tài chính quốc tế, sản xuất phân tán toàn cầu và nhiều thứ khác nữa. Nếu những hệ thống này không có tính chịu đựng dẻo dai cao, lợi ích của chúng sẽ bị đè bẹp bởi các mối nguy thảm họa – thế giới thực đã chứng kiến những gì diễn ra trong cuộc khủng hoảng tài chính toàn cầu 2008. Thành phố có thể bị tê liệt vì không có điện – ánh sáng sẽ không còn, nhưng hậu quả nặng nề còn kéo dài. Chỉ trong một vài ngày các thành phố sẽ trở nên không có khả năng sinh sống và rơi vào trạng thái vô chính phủ.

Du lịch bằng đường hàng không có thể giúp lan tỏa các bệnh dịch ra khắp thế giới chỉ trong vài ngày, để lại sự tàn phá khủng khiếp cho các siêu thành phố vô tổ chức ở các nước phát triển. Và mạng xã hội sẽ giúp lan truyền sự sợ hãi và các tin đồn, kinh tế ngưng trệ, dường như với tốc độ ánh sáng.

Khi chúng ta nhận ra sức mạnh của công nghệ sinh học, robot, công nghệ thông tin, và trí tuệ nhân tạo AI – và hơn thế nữa – những phát kiến tiềm năng còn đến trong nhiều thập kỉ tới – chúng ta không thể tránh khỏi sự bất an về cách mà các công nghệ mạnh mẽ này có thể bị sử dụng sai mục đích. Lịch sử đã minh chứng có những giai đoạn mà các nền văn minh khác nhau trên thế giới rơi vào trạng thái vụn vỡ và bị nghiền nát. Thế giới đã trở nên quá kết nối đến mức khiến cho một thảm họa khi xảy ra ở một vùng nào đó có thể để lại hậu quả liên đới ra toàn cầu. Lần đầu tiên, chúng ta cần phải suy tư kĩ lưỡng về sự sụp đổ – ở khía cạnh xã hội hay sinh học – có thể tạo ra một bước thụt lùi cho cả nền văn minh. Sự thụt lùi này có thể tạm thời. Mặt khác, nó có thể trở nên quá khủng khiếp (liên quan đến môi trường hay sự suy thoái gen) khiến cho những người sống sót không thể hồi phục nền văn minh giống như trước kia.

Nhưng nó cũng làm dấy lên câu hỏi: liệu có những lớp sự kiện cực đoan tách rời có thể phủ tấm màn đen lên tất cả chúng ta – một thảm họa có thể quét sạch nhân loại và tất cả sự sống? Các nhà vật lý khi làm việc ở dự án Manhattan trong thế chiến Hai cũng đã nêu ra những băn khoăn kiểu Promethean như vậy (nhân vật thần thoại Hy Lạp). Chúng ta liệu có hoàn toàn chắc chắn rằng các vụ nổ nguyên tử sẽ không đốt cháy toàn bộ khí quyển và đại dương của chúng ta? Trước vụ thử quả bom nguyên tử đầu tiên vào năm 1945 ở New Mexico (vụ thử Trinity), Edward Teller và hai đồng nghiệp của ông đã đề cập đến vấn đề này trong một tính toán được phát hành sau này bởi Phòng lab Los Alamos; họ đã thuyết phục bản thân rằng đã đảm bảo các yếu tố an toàn. Và may mắn thay, họ đã đúng. Bây giờ chúng ta đã biết chắc rằng một quả bom nguyên tử, mặc dù sức tàn phá của nó rất lớn, cũng không thể châm ngòi cho chuỗi các phản ứng nhiệt hạnh để có thể hủy hoại hoàn toàn Trái Đất và bầu khí quyển của nó

[…]

Chúng ta nên đối diện với sự e ngại rủi ro như thế nào? Một vài người sẽ tranh luận rằng chỉ cần 1 phần 10 triệu khả năng xảy ra thảm họa sống còn là đủ tốt rồi, bởi vì nó nằm dưới khả năng mà trong năm tới, một thiên thạch đủ lớn sẽ va vào trái Đất gây ra thảm họa toàn cầu. (Điều này cũng giống như tranh luận về việc hiệu ứng gây ung thư (carinogenic) của các tia nhân tạo thì chấp nhận được nếu nó không vượt quá gấp đôi hiểm họa từ các tia tự nhiên – phát ra từ các hòn đá địa phương). Nhưng với một số người giới hạn này có vẻ như vẫn không thấm vào đâu. Nếu có một mối đe dọa tới toàn thể Trái Đất, công chúng có lẽ sẽ đòi hỏi một sự bảo đảm rằng xác xuất phải ở mức 1 trên 1 tỷ thậm chí 1 trên 1 nghìn tỷ (trillion) – trước khi chuẩn thuận một thí nghiệm nào đó nhằm thõa mãn trí tò mò của một nhà vật lý lý thuyết.

Liệu chúng ta có thể bảo chứng cho con số trên? Chúng ta có thể tự tin đưa ra những luận điểm chống lại việc Mặt trời sẽ không mọc vào ngày mai, hoặc chống lại việc cục xúc sắc sẽ luôn đưa ra 100 lần mặt số 6 trong một lượt gieo – vì chúng ta hiểu bản chất những điều đó như thế nào. Nhưng nếu hiểu biết của chúng ta trở nên mơ hồ – như đang ở trên các đường biên của các khái niệm vật lý – chúng ta sẽ không thể đưa ra được con số xác suất nào, hoặc đủ tự tin để tiên đoán một điều gì đó khả dĩ. Sẽ là quá tự phụ nếu ta đặt niềm tin vào những lý thuyết mô tả những gì xảy ra khi các nguyên tử va vào nhau với nguồn năng lượng không đoán định được. Nếu như có một câu hỏi trong một cuộc họp quốc hội nào đó như sau:”Bạn có thực sự muốn tuyên bố rằng có ít hơn 1 trên 1 tỷ cơ hội là bạn đã sai” Tôi chắc chắn không thoải mái lắm mà trả lời có.

Nhưng mặt khác, nếu nghị viên hỏi: “Liệu thí nghiệm này có mở ra một khám phá đột phá nào hay không – chẳng hạn như – cung cấp thêm nguồn năng lượng mới cho thế giới?” Tôi một lần nữa sẽ cung cấp các dữ kiện chống lại câu hỏi trên. Vấn đề nằm ở chỗ mối liên hệ bà con giữa hai sự kiện khác thường – một sẽ đem lại ích lợi to lớn – một sẽ đem đến sự phá hủy. Tôi có thể đoán rằng – phía cao hơn, đem lại ích lợi cho nhân loại – mặc dù tính không chắc chắn cao, sẽ có khả năng diễn ra lớn hơn viễn cảnh tăm tối. Những suy nghĩ kiểu như vậy có thể loại bỏ sự băn khoăn trước mặt nhưng khiến chúng ta không lượng hóa được các xác suất liên quan. Do đó, sẽ rất khó tìm được sự chắc chắn thuyết phục cho các thỏa thuận kiểu Faustian (khế ước của quỷ – việc đánh đổi lợi ích dài hạn). Sự sáng tạo thường có tính phá hủy, nhưng nếu chúng ta không mạo hiểm, chúng ta sẽ bỏ qua các lợi ích của chúng. Việc ứng dụng các nguyên tắc cẩn trọng quá mức cũng có hạn chế của nó. Luôn có chi phí ẩn tàng của việc nói “không”.

Dù thế nào đi chăng nữa, các nhà vật lý phải nên thận trọng trong việc tiến hành các thí nghiệm có thể tạo ra các điều kiện chưa có tiền lệ, thậm chí là trong vũ trụ. Cũng tương tự như vậy, các nhà sinh vật học cần phải tránh tạo ra các mầm bệnh được điều chỉnh gen có khả năng gây hại diện rộng, hoặc thay đổi các phôi thai người ở quy mô lớn. Các chuyên gia công nghệ cần nhận ra rủi ro của việc sụp đổ dây chuyền hạ tầng toàn cầu. Các nhà sáng tạo đang được tận hưởng thành quả của AI nâng cao cần tránh đi viễn cảnh máy móc thay thế con người. Nhiều người trong chúng ta có xu hưởng gạt đi các hiểm họa như trong phim khoa học viễn tưởng – nhưng đừng bỏ qua các hình ảnh đó – thậm chí ngay cả khi nó có vẻ không bao giờ có thật.

Những ví dụ như vậy sẽ giúp chúng ta hình dung rõ hơn về các hiểm họa sống còn đồng thời khuyến khích sự cần thiết của việc trao đổi chuyên môn, sự tương tác giữa các chuyên gia và công chúng. Hơn nữa cần đảm bảo các công nghệ siêu tưởng được khai thác tối ưu sẽ đòi hỏi cộng đồng có tư duy toàn cầu và đặt trong bối cảnh dài hạn.

Và, nhân tiện, những ưu tiên của chúng ta trong việc phòng tránh các thảm họa sống còn sẽ phụ thuộc vào cách chúng ta trả lời câu hỏi sau của nhà triết học Derek Parfit:” quyền của những người chưa được sinh ra là gì?”.