Sự nguy hiểm của AI (Nhiệm vụ bất khả thi)

Sự nguy hiểm của AI (Nhiệm vụ bất khả thi)

Điệp viên Ethan Hunt trong "Nhiệm vụ bất khả thi" phần mới nhất phải chiến đấu với một kẻ thù bí ẩn mang tên "Thực Thể" (the Entity), một hệ thống AI có khả năng tự nhận thức (self-aware). AI này có khả năng xâm nhập vào mọi hệ thống an ninh, làm giả hay ăn cắp danh tính của con người, can thiệp điều chỉnh hiện thực số (digital reality) và tạo ra các hỗn loạn (chaos) mà không lưu lại dấu vết - một điệp viên hoàn hảo để đối đầu với Ethan. Vì trí tuệ "Thực thể" vượt xa con người nên gần như hệ thống vũ khí hiện tại của nhân loại đều không thể chống lại. Bộ phim xuất hiện ngay đúng thời điểm mà chỉ cách đó chỉ vài tháng, các nhà nghiên cứu AI hàng đầu đã thảo một lá thư mở đề cập đến một số hiểm họa của AI trước sự xuất hiện của Chatbot GPT-4 do OpenAI chế tạo: "các hệ thống AI với khả năng suy tư cạnh tranh với con người có thể trở thành mối hiểm họa to lớn đến xã hội và loài người". Nhóm học giả này kêu gọi chấm dứt việc nghiên cứu AI, tại sao phải dồn tâm sức cho việc tạo ra những cỗ máy có khả năng thay thế chúng ta. Bộ phim mới nhất của Tom Cruise cũng xoáy quanh suy tư này.

Nhà tâm lý học Gerd Gigerenzer, một học giả sừng sỏ trong địa hạt "ra quyết định dựa trên kinh nghiệm" (heuristics) tại Viện Nghiên Cứu Phát Triển Con Người Planck, có nhận định nhẹ nhàng hơn: "mối nguy hại lớn nhất của hệ thống AI thực ra nằm ở việc con người có thể ngừng suy tư và giao việc ra quyết định cho các trợ lý ảo như Alexa (của Amazon) chẳng hạn." Theo Gerd, một số người có ảnh hưởng đã đề cập đến việc AI có thể hiểu sâu sắc con người hơn chính bản thân họ tự biết về mình, tuy nhiên đây là một quan niệm rất sai hay chính xác là cách để quảng cáo thổi phồng. Hãy nhìn vào sự kiêu ngạo của một số hệ thống AI: "chúng tôi biết những gì bạn muốn tốt hơn cách bạn đang cảm nhận về mình, hãy tuân theo hệ thống AI này".


Thêm nữa, con người hiện đang đối diện với việc bị giám sát ngày đêm - nay càng được tăng cường với sự trợ giúp của AI. Hệ thống chấm điểm tín dụng xã hội của Trung Quốc là thứ không thể được tạo ra nếu thiếu công nghệ số. Hiện tại đây là một cuộc thử nghiệm xã hội to lớn ở 44 thành phố, tác động hàng trăm triệu người. Hoa Kỳ cũng đang áp dụng hệ thống FICO để chấm điểm "mức độ khả tín về tài chính" ảnh hưởng trực tiếp đến khả năng vay vốn (cùng lãi suất đi kèm). Còn hệ thống chấm điểm xã hội của Trung Quốc lại là một hình thức FICO đo lường tất cả mọi thứ về bạn, bao gồm cả các hoạt động xã hội và chính trị. Trong đó, nếu bạn truy cập hay gõ một số thông tin sai trái, điểm bị giảm xuống hay nếu bạn đi thăm cha mẹ già, điểm được cộng thêm. Nếu bạn băng qua đường khi đèn đỏ, điểm giảm xuống. Nếu điểm quá thấp, bạn sẽ bị trừng phạt (hãy xem bộ phim Gương Đen). Cụ thể, trong năm 2022, đã có đâu đó gần 10 ngàn người Trung Quốc không thể đặt vé máy bay hay không được phép cho con mình học ở những trường tư tốt nhất. Ở cực còn lại, những người "điểm cao" sẽ được khám ở những bệnh viện tốt nhất. Hệ thống giám sát trên được nhiều người Trung Quốc tin là cần thiết vì nó giúp điều chỉnh hành vi con người theo "chuẩn mực" hay quy định. Thực tế cho thấy người Trung Quốc đã thích nghi dần với hệ thống này, đồng thời cả xã hội trở nên dễ tiên đoán hơn và tuân thủ luật lệ tốt hơn. Do đó câu hỏi quan trọng hơn, liệu chúng ta có sẵn sàng cho một mô hình giám sát như vậy vận vào mình, liệu chúng ta có cho đi dữ liệu của mình bằng mọi giá chỉ vì không muốn trả tiền cho dịch vụ hay bất cứ thứ gì. Liệu chúng ta có đang đang giá thấp cách mà các công ty công nghệ như Google hay Facebook phối hợp với chính phủ Hoa Kỳ để giám sát công dân. Công nghệ giúp chúng ta tiện nghi hơn nhưng đánh đổi với việc bị giám sát kỹ lưỡng hơn, đây là hiện thực mà ai ai cũng phải đối diện. Một số ít người nhận ra mức độ giám sát đang gia tăng này, hãy thử tìm đọc "Chính sách bảo mật" của Samsung SmartTV, họ đã cảnh báo rõ ràng bằng câu chữ "chúng ta không nến trò chuyện trước TV bởi nó có thể bị ghi âm và gửi đến bên thứ ba" (qua VoiceRecognition).

Gerd đã dành nhiều thập kỷ đào sâu vào cách con người chân nhận thế giới (hay mọi thứ xung quanh) trong khung thời gian và kiến thức giới hạn (limited time & knowledge). Trong cuốn sách "Làm thế nào để duy trì trí tuệ con người trong một thế giới thông minh" (How to stay smart in a smart world), ông nhận định "trí tuệ con người vẫn hoàn toàn đánh bại các thuật toán". Cụ thể, với Gerd, các nguyên tắc "kinh nghiệm giản đơn" (simple heuristics) hoàn toàn có thể vượt qua các thuật toán phức tạp (hay dữ liệu lớn) trong môi trường thiếu chắc chắn cao độ (highly uncertain). Bài viết dưới đây đào sâu vào một số nguyên tắc chính yếu liên quan đến AI (thế giới ổn định + thích ứng) đồng thời xoáy sâu vào mô hình kinh doanh của AI, qua tham chiếu với các nền tảng sừng sỏ như Facebook, Google hay Youtube. Những gã khổng lồ này đã phổ biến mô hình quảng cáo trực tuyến (đẻ ra cái ngành gọi là "digital marketing"), biến người dùng thành sản phẩm cho các nhà quảng cáo với mục đích phục kích và đổ quảng cáo (cá nhân hóa) liên tục vào người dùng. AI dường như cũng đang đi theo con đường này và chắc chắn công chúng sẽ phải trả một cái giá nào đó (ngoài tiền bạc nếu dịch vụ liên quan được cung cấp miễn phí). Hãy quan sát xem liệu nền tảng AI hiện tại có dẫn đến viễn cảnh "Thực thể" AI kiểm soát thế giới như trong phim "Nhiệm vụ bất khả thi - Phần 7" hay không.

Cuốn sách trên của Gerd đề cập đến nguyên tắc của thế giới ổn định (stable world principle): cụ thể các thuật toán phức tạp và dữ liệu lớn (big data) chỉ có thể hoạt động hiệu quả trong những tình huống ổn định, khi mà những gì diễn ra ngày mai cũng giống như hôm qua. Tuy nhiên, khi môi trường trở nên không ổn định hay bị bao phủ bởi quá nhiều thứ không chắc chắn thì nhận định này không còn đúng nữa. Trí tuệ sinh học của con người đã phát triển theo hướng đối diện với các tình huống không chắc chắn đến từ người khác và các mối nguy (như từ động vật hoang dã hay thời tiết chẳng hạn). AI có thể chơi cờ nhưng vấn đề là AI không thể giúp chúng ta tìm được người bạn đời lãng mạng "tốt nhất" (best romantic partner). Rõ ràng đây là những quyết định trong môi trường thiếu chắc chắn cao độ (high uncertainty). Vậy thì chúng ta cần chân nhận rõ AI sẽ hoạt động tốt hay không tốt trong những tình huống nào, chứ không phải chăm chăm nghe những lời quảng cáo hoa mỹ hay chìm ngập trong niềm tin "tôn giáo công nghệ" cực đoan (techno-religious faith). Thêm nữa, cần đưa khía cạnh "tâm lý" vào các trao đổi về mô hình AI.

Việc nghiên cứu AI khởi phát từ quá trình phân tích các kinh nghiệm (heuristics), kiểu như phán đoán các tình huống dựa vào việc dụng quy tắc ngón tay cái (rules of thumb -phương pháp coi trọng kinh nghiệm thực tiễn) trong những điều kiện thiếu chắc chắn. Cụ thể, hệ thống AI thu thập nguồn kinh nghiệm từ các chuyên gia, sau đó lập trình đưa vào máy để khiến nó thông minh hơn. Herbert Simon, Alan Newell và McCarthy, những người đặt nền móng cho AI, đã nhấn mạnh chữ "I" trong khái niệm này chính là trí thông minh con người (human intelligence). Trong hơn một thập kỷ phát triển, dường như, máy học (ML) đã trượt xa khỏi cách thức mà bộ não hay trí tuệ con người thực sự vận hành. ML dường như là tập hợp các phương pháp thống kê, quy tắc hóa (reularization), cùng với độ lệch/phương sai (bias variance) liên quan. Tóm lại, ngành máy học hiện tại dường như là mở rộng của khoa học thống kê, đối với Gerd Gigerenzer, đây là một sai lầm lớn trong cách tiếp cận. Dù "học sâu" (deep learning) đã giúp con người đi rất xa nhưng còn lâu mới chạm đến chữ "I" trong trí tuệ con người.

Các thành tựu to lớn của AI thường xảy đến trong các địa hạt có tính ổn định cao (hay giải quyết các vấn đề ổn định). Cụ thể như trong các trò chơi (games), nơi các luật lệ đã được thiết lập. Tuy nhiên, theo Gerd, khi tiên đoán hành vi của con người, các thuật toán phức tạp không thể làm tốt hơn một số thuật toán giản đơn (simple algorithms), đó chính xác là những gì mà trí tuệ con người dựa vào. Một trong những phép màu của trí tuệ con người chính là khả năng nhận biết được thứ gì cần phải bỏ qua (what to ignore). Con người, tốn cả chiều dài lịch sử tiến hóa sinh học, để học cách áp dụng các mô hình đơn giản trong những tình huống thiếu chắc chắn, mà lúc này này bơm thêm nhiều dữ liệu cũng không giúp ích gì.

Một ví dụ về thành công của dữ liệu lớn chính là Google Flu Trends, các kỹ sư Google đã có một ý tưởng khá hay ho nhằm tiên đoán sự lan truyền của dịch cúm một cách nhanh chóng hơn (CDC - Trung Tâm Kiểm Soát Dịch Bệnh Hoa Kỳ cũng làm công việc tiên đoán này, tuy nhiên chậm hơn Google). Nghiên cứu này giúp xác định cần bao nhiêu bác sĩ cúm để phục vụ bệnh nhân trong tuần tới? Các kĩ sư Google trả lời câu hỏi trên bằng dữ liệu lớn (big data), cụ thể phân tích đâu đó gần 50 triệu khái niệm được tìm kiếm trên Google (search terms) và thử nghiệm trên 400 triệu mô hình để tìm ra thuật toán tốt nhất (tất nhiên cái tốt nhất đó được giữ bí mật - trong đó có khoảng 45 biến số - variants). Đống dữ liệu này giúp Google đưa ra các dự đoán (predict). Những người có triệu chứng "cúm" thường sẽ tìm kiếm trên Google cách thức chữa trị, gã khổng lồ này có thể xác định những người bệnh đang phân bổ theo phổ địa lý thế nào. Tuy nhiên điều không mong đợi đã diễn ra vào năm 2009: sự xuất hiện đột ngột của cúm lợn (swine flu), dấu chỉ của việc thiếu chắc chắn. Con người gần như không thể tiên đoán sự xuất hiện của các loại virus kiểu như coronavirus khiến chúng ta khổ sở trong hai năm vừa qua. Dữ liệu lớn trong những tình huống thiếu chắc chắn đã hoạt động chập choạng.

Trong trường hợp cúm lợn, dữ liệu lớn có thuật toán bị mắc kẹt trong quan sát: số lượng cảm cúm thường cao vào mùa đông, thấp vào mùa hè. Tuy nhiên, cúm lợn lại xuất hiện trong tháng 3 và đi qua suốt mùa hè. Thuật toán bí mật của Google Flu Trends, như một bể chứa dữ liệu khổng lồ có căn cơ khó đổi thay (như góc nhìn trên) đã tiên đoán sai số lượng người đến gặp các bác sĩ khi cúm lợn xuất hiện đột ngột. Tuy nhiên, nếu hệ thống trên chỉ tập trung vào các dữ liệu gần trong quá khứ (cụ thể một tuần), thì AI của Google có thể bám theo các xu hướng đột xuất ngay lập tức. Đây là logic chính yếu của phương pháp "kinh nghiệm gần" trong điều kiện thiếu chắc chắn. Các kỹ sư Google đã xem xét lại các thuật toán, họ có hai lựa chọn: (1) thuật toán phức tạp trước đó đã không còn hiệu quả hãy làm nó phức tạp hơn nữa (2) đơn giản hóa thuật toán vì dịch cúm lợn xuất hiện đột ngột, thế giới đã không còn ổn định nữa. Gerd cùng các đồng nghiệp tại Viện nghiên cứu Max Planck đã đào sâu vào khái niệm "AI tâm lý" (psychological AI), cụ thể xem xét cách thức con người học cách bỏ qua (ignore) hay đơn giản hóa hiện thực để sinh tồn trong điều kiện thiếu chắc chắn. Rõ ràng, trong tình huống bất an phức tạp, con người bỏ qua phần lớn thông tin mà chỉ dựa vào các dữ kiện gần nhất để xử lý. Gerd đã thiết kế ra các thuật toán đơn giản nhất có thể, gọi là thuật toán kinh nghiệm gần (regency heuristics). Cụ thể, các điểm dữ liệu liên quan đến quá trình thăm khám tại bệnh viện chỉ lấy trong vòng một tuần. So với cách thức đào xới dữ liệu trong vòng 8 năm qua của Google Flu Trends thì thuật toán dựa trên tâm lý của Gerd đã hoạt động tốt hơn nhiều. Đây là ví dụ kinh điển về cách mà dữ liệu lớn đã thua thuật toán giản đơn.

Các ứng dụng AI, đại đã số áp dụng trong môi trường ổn định, lặp đi lặp lại hàng ngày (routine things), điển hình như việc xử lý số liệu kế toán. Đó là địa hạt mà AI làm tốt hơn chúng ta rất nhiều. Rõ ràng, việc tiên đoán hành vi con người (human behavior) là bất khả, nó giống như việc dự đoán cách đứa bé sáu tuổi trưởng thành trong 10 năm tới. Tất nhiên, ranh giới giữa những thứ có thể tiên đoán và không thể tiên đoán khá mờ nhạt, chúng ta không chắc chắn về những thứ không chắc chắn (uncertainty about uncertainty). Nhìn ở góc độ này, chúng ta ai ai cũng đang trong một cuộc thí nghiệm xã hội to lớn.

Một ví dụ khác là ứng dụng AI trong tiên đoán việc tái phạm tội (recidivism predictions) của phạm nhân. Có những mô hình đơn giản chỉ dựa vào hai hoặc ba biến số (variables) cụ thể như độ tuổi và giới tính cùng các cáo buộc trước đó (previous convictions) chạy tốt không thua kém các mô hình phức tạp đặt trong hộp đen (được giữ bí mật). Thêm nữa, mô hình đơn giản lại trở nên rất minh bạch (transparent), chúng ta hoàn toàn có thể theo dõi theo cách nó hoạt động. Các quan tòa chưa được tập huấn về thống kê (Gerd đã từng huấn luyện cho các thẩm phán liên bang của Hoa Kỳ) thì rất khó để lĩnh hội các mô hình AI phức tạp, dù họ rất thông minh. Đôi khi họ lại dùng đến thuật toán phức tạp chứa trong hộp đen như cứu cánh (crystal ball) bởi rơi vào cái bẫy tư duy: hệ thống AI này chắc chắn tốt vì nó quá đắt đỏ (chứ không phải vì tôi không thể hiểu nó). Nếu các thẩm phán có cơ hội quan sát cách thức các thuật toán "đơn giản" hoạt động với hiệu quả tương tự, dựa trên các danh sách ra quyết định (decision lists) hay hệ thống chấm điểm minh bạch (point system), họ sẽ dõi sâu sát hơn (bởi dễ hiểu) và góp ý nhiệt thành hơn.

Các thuật toán đơn giản góp phần tạo dựng XAI (Explainable AI - AI có thể giải thích được), thứ khởi phát từ nhu cầu giải thích hệ thống AI phức tạp cho những người không chuyên, cụ thể như bác sĩ hay thẩm phán, những người có lẽ không dám mua các sản phẩm AI bí ẩn chứa trong hộp đen. Rõ ràng, thật lạ lùng khi có một thuật toán bí mật (chứa trong hộp đen) nào đó khuyến nghị cách thức chữa trị bệnh nhân ung thư cho các bác sĩ. Các bác sĩ sẽ luôn muốn biết tại sao thuật toán lại đưa ra khuyến nghị kiểu này hay kiểu kia và rõ ràng không thể phó thác rủi ro mạng sống của bệnh nhân cho một thuật toán xa lạ. Điển hình như việc cỗ máy IBM Watson đưa ra các tham vấn điều trị không chính xác. Trong điều kiện thiếu chắc chắn, như phân tích ở trên, việc sử dụng các mô hình đơn giản không chỉ hiệu quả hơn mà cũng giúp giải thích hệ thống tới những người không chuyên một cách dễ dàng hơn. Tính minh bạch của thuật toán dựa trên "kinh nghiệm gần hay giản đơn" (simple heristics) cho phép chúng ta dõi theo xem hệ thống có đang phân biệt đối xử hay không qua việc kiểm tra các tham số "chính yếu" đang được áp dụng. Trong một xã hội với xu hướng phức tạp hóa mọi thứ, thì sự minh bạch lại càng trở nên cấp thiết. Điển hình như việc các luật lệ tại Hoa Kỳ cũng như tại Đức đều cực kỳ khó hiểu với đại đa số công dân (thậm chỉ cả các luật sư). Do đó, đôi khi việc phức tạp hóa không tạo ra thêm giá trị, nó chỉ khiến chúng ta rơi vào ảo ảnh của những thứ phức tạp (complexity illusion): cụ thể áp thứ phức tạp khác vào để giải quyết thứ phức tạp hiện tại. Thực ra phải làm ngược lại: đơn giản hóa và đơn giản hóa.

Một nguyên tắc thú vị khác mà Gerd đề cập trong cuốn sách, chính là nguyên tắc "thích ứng với AI" (adapt to AI). Thông thường AI xuất hiện trước mắt chúng ta dưới hình thức một hệ thống hỗ trợ (assistant system) không ngừng học hỏi về hành vi của con người cùng môi trường xung quanh. Do đó, hệ thống này chỉ có hoạt động tốt khi môi trường và chính bản thân chúng ta phải trở nên dễ tiên đoán hơn hay ổn định hơn. Xe tự hành (autonomous car) là một ví dụ điển hình. Dựa vào nguyên tắc "thế giới ổn định" trên, theo Gerd, xe tự hành không bao giờ có thể trở thành hiện thực (bởi thế giới rõ ràng phức tạp và không ổn định) dù cho Elon Musk có ra rả về viễn cảnh trên như thế nào. Musk quả là một tay lão luyện trong marketing thổi phồng (marketing hype). Xe tự hành cấp độ 5 (Level 5), loại xe có thể lái hoàn toàn tự động mà không cần con người can thiệp ở mọi điều kiện thời tiết hay giao thông (kiểu như Tom/Ethan lái chiếc Fiat 500 màu vàng ở Rome khỏi những kẻ địch) còn khá xa vời. Hiện tại chúng ta chỉ mới đạt đến cấp độ 2, loại xe cung cấp các hỗ trợ phụ thêm như tính toán cách đậu xe. Xe tự hành cấp độ 3 có thể làm nhiều thứ nhưng vẫn phải cần con người giám sát để điều chỉnh trực tiếp khi gặp bất ổn. Xe tự hành 100% rất khó xảy ra nhưng quá trình tiệm cận đến đó sẽ khởi sinh nhiều thứ thú vị. Xe cấp độ 4 thực tế đã được chế tạo để chạy không cần con người trong một số khu vực hạn chế, như tại sân bay, trên cao tốc hay khu vực đặc biệt trong thành phố (cách ly khỏi khách bộ hành, người lái xe đạp cùng các phương tiện khác). Con người vẫn cần phải giám sát hoàn toàn hệ thống này đồng thời thích ứng theo cách tái thiết kế lại một số khu vực trong thành phố, tạo ra cái gọi là hệ sinh thái cho xe tự hành. Từ từ cái gọi là niềm tin công nghệ dần được xây dựng (technological faith), con người học cách thích ứng qua việc điều chỉnh giá trị (values), sự riêng tư (privacy) và phẩm giá (dignity) theo hệ thống mới. Đây là thứ đang diễn ra mạnh mẽ, ở góc độ tâm lý con người. Vấn đề thực sự có thể không đến từ AI mà từ những người đang đứng sau điều khiển AI: các công ty, tập đoàn và các chính phủ.

Gerd cũng đề cập đến mô hình kinh doanh của AI qua tham chiếu với mô hình kinh doanh hiện tại của Facebook, Google cùng một số công ty công nghệ khác. Trước tiên, hãy hình dung về một quán cà phê tuyệt đẹp nơi quê nhà của bạn. Quán này cung cấp cà phê miễn phí và gần như có thể gặp mọi bạn bè ở đó. Bạn đi đến bàn ngồi và phát hiện ra mọi cuộc trao đổi nói chuyện đều được ghi âm và ghi hình lại qua hệ thống microphones và camera đặt khéo léo ở dưới bàn và một số ngóc ngách trong quán. Dữ liệu mọi cuộc trò chuyện của bạn được chủ quán gửi đến các công ty khai thác dữ liệu để họ bán cho các nhà quảng cáo. Đột nhiên, khi đang ngồi trong quán cà phê, một loạt người xa lạ nhảy bổ vào cung cấp các sản phẩm cá nhân hóa dành riêng cho chính bạn. Đây là vấn đề của mô hình kinh doanh hiện tại, bạn đang chi trả cho các dịch vụ bằng dữ liệu của chính bản thân mình. Điều này có nghĩa là trong quán cà phê đó, khách hàng của chủ quán chính là những người bán hàng (seller) chứ không phải chúng ta (người đi uống cà phê). Thực ra, chúng ta chính là sản phẩm. Mô hình kinh doanh này đã khiến các quảng cáo cá nhân hóa nhảy bổ liên tục vào người dùng trên mọi nền tảng số miễn phí (Youtube, Facebook chẳng hạn), từ đó tạo ra trạng thái căng thẳng thường trực cho họ (như cảm giác bị theo dõi, theo một nghiên cứu của Facebook).

Một số sinh viên của Gerd đang làm kiểu công việc "duy trì người dùng ở lại nền tảng lâu nhất" tại các tập đoàn công nghệ. Tuy nhiên phần lớn các nỗ lực trên sẽ không còn cần thiết nếu người dùng tiếp tục quay lại quán để uống cà phê miễn phí hoặc được phép bỏ tiền ra mua cà phê cho mình tại quán. Hiện tại, 97% doanh thu của Facebook (giờ đây là Meta) đến từ quảng cáo. Mỗi người dùng Facebook cần phải trả 2$/tháng để nền tảng này có cùng doanh thu hiện tại đang lấy từ các nhà quảng cáo. Con số này chỉ tầm một ly cà phê/ tháng, rõ ràng chúng ta hoàn toàn có thể chi trả. Tuy nhiên, nếu chuyển đổi mô hình mới Facebook chắc chắn sẽ gặp nhiều rắc rối với sự kháng cự đến từ nhiều phía (như các nhà đầu tư hay quảng cáo).

Hai nhà sáng lập Google từng đứng ra chỉ trích mô hình kinh doanh dựa trên quảng cáo trong một bài báo vào năm 1998 (đồng thời đề cao mô hình dựa trên khoa học/scientific-based machines). Tuy nhiên, không hiểu sao, khi khủng hoảng dotcom ập đến, mô hình quảng cáo lại được lựa chọn và họ đã rất thành công với hướng đi này. Điều này là thắng lợi lớn cho Google nhưng công chúng rõ ràng đã phải trả một cái giá nào đó (chính là dữ liệu của chúng ta). Hãy xem xét tiếp hệ thống gợi ý video của Youtube (recommender system), nền tảng này dường như ngày càng có xu hướng đẩy người dùng đến các video cực đoan hơn, phản khoa học hơn (hay giải trí rẻ tiền hơn) bởi đó là những nội dung gây hào hứng nhất, kiểu như video chứa đầy thù ghét (hate speech) chẳng hạn. Nhận thức chung của xã hội có thể khác đi rất nhiều nếu tiếp xúc liên tục với các nội dung này, cái giá trước mắt nhìn thấy chính là xu hướng chia rẽ quan điểm (trong mọi địa hạt) ngày càng mạnh mẽ. Theo Gerd, chỉ có thể thay đổi mô hình từ "chi trả bằng dữ liệu" sang "chi trả bằng tiền" mới có thể thay đổi hiện trạng này. Tuy nhiên, miếng bánh miễn phí (hay cà phê miễn phí) vẫn hấp dẫn số đông hơn mặc cho sự hy sinh về dữ liệu cá nhân.