Khi các chuyên gia lo lắng về mối quan hệ của những người trẻ tuổi với thông tin trực tuyến, họ thường cho rằng những người trẻ tuổi không hiểu biết về phương tiện truyền thông như những người lớn tuổi hơn. Nhưng nghiên cứu dân tộc học do Jigsaw - đơn vị ươm tạo công nghệ của Google - thực hiện đã tiết lộ một thực tế phức tạp và tinh tế hơn: những thành viên của Thế hệ Z, thường được hiểu là những người sinh sau năm 1997 và trước năm 2012, đã phát triển các chiến lược khác biệt rõ rệt để đánh giá thông tin trực tuyến, những chiến lược sẽ khiến bất kỳ ai trên 30 tuổi bối rối. Họ không tiếp nhận tin tức như những người lớn tuổi hơn - cụ thể là, bằng cách đầu tiên đọc tiêu đề rồi mới đọc câu chuyện. Họ thường đọc tiêu đề trước, nhưng sau đó họ chuyển sang các bình luận trực tuyến liên quan đến bài viết và chỉ sau đó mới đi sâu vào nội dung của tin tức muốn truyền tải. Xu hướng kỳ lạ đó rất đáng chú ý. Những người trẻ tuổi không tin rằng một câu chuyện là đáng tin chỉ vì một chuyên gia, người kiểm duyệt biên tập hoặc một nhân vật có thẩm quyền khác xác nhận nó; họ thích tham khảo ý kiến của một đám đông đồng nghiệp để đánh giá mức độ đáng tin cậy của nó. Ngay cả khi những người trẻ tuổi không tin tưởng vào các tổ chức và những người có thẩm quyền, thì kỷ nguyên của mạng xã hội cho phép họ đặt niềm tin vào đám đông ẩn danh.
Ảnh minh họa
Một nghiên cứu tiếp theo của Jigsaw vào mùa hè năm 2023, sau khi phát hành chương trình trí tuệ nhân tạo ChatGPT, đã khám phá cách các thành viên của Thế hệ Z ở Ấn Độ và Hoa Kỳ sử dụng chatbot AI. Nghiên cứu phát hiện ra rằng những người trẻ tuổi nhanh chóng tham khảo chatbot để được tư vấn y tế, tư vấn mối quan hệ và mẹo kinh doanh cổ phiếu, vì họ nghĩ rằng AI dễ tiếp cận, sẽ không phán xét họ và phản hồi nhu cầu cá nhân của họ—và rằng, trong nhiều khía cạnh này, lời khuyên của AI tốt hơn lời khuyên mà họ nhận được từ con người. Trong một nghiên cứu khác, công ty tư vấn Oliver Wyman đã tìm thấy một mô hình tương tự: có tới 39 phần trăm nhân viên Thế hệ Z trên toàn thế giới muốn có một đồng nghiệp hoặc quản lý AI thay vì một người; đối với những người lao động Thế hệ Z tại Hoa Kỳ, con số đó là 36 phần trăm. Một phần tư tổng số nhân viên tại Hoa Kỳ cũng cảm thấy như vậy, cho thấy những thái độ này không chỉ dành riêng cho giới trẻ.
Những phát hiện như vậy thách thức các quan niệm thông thường về tầm quan trọng và tính thiêng liêng của các tương tác giữa các cá nhân. Nhiều nhà quan sát lớn tuổi than thở về sự gia tăng của các chatbot, coi công nghệ mới này là thủ phạm khiến mọi người trở nên xa lánh xã hội, thúc đẩy khoảng cách ngày càng tăng giữa các cá nhân và mất đi sự tôn trọng đối với thẩm quyền. Nhưng nhìn theo cách khác, hành vi và sở thích của Thế hệ Z cũng chỉ ra một điều khác: sự tái cấu trúc lòng tin mang theo một số hạt giống hy vọng.
Các nhà phân tích đang suy nghĩ sai về lòng tin. Quan điểm phổ biến cho rằng lòng tin vào các thể chế xã hội đang sụp đổ ở các nước phương Tây ngày nay, chỉ có hai phần trăm người Mỹ nói rằng họ tin tưởng Quốc hội, chẳng hạn, so với 77 phần trăm cách đây sáu thập kỷ; mặc dù 55 phần trăm người Mỹ tin tưởng vào phương tiện truyền thông vào năm 1999, nhưng chỉ có 32 phần trăm làm như vậy ngày nay. Thật vậy, đầu năm nay, nhà thăm dò ý kiến Kristen Soltis Anderson đã kết luận rằng "điều gắn kết chúng ta [người Mỹ] ngày càng tăng là những gì chúng ta không tin tưởng".
Nhưng dữ liệu như vậy chỉ nói lên một nửa câu chuyện. Bức tranh có vẻ ảm đạm nếu nhìn qua lăng kính của cuộc thăm dò ý kiến truyền thống của thế kỷ XX, nơi mọi người hỏi họ cảm thấy thế nào về các thể chế và nhân vật có thẩm quyền. Nhưng hãy nhìn qua lăng kính nhân chủng học hoặc dân tộc học—theo dõi những gì mọi người làm thay vì những gì họ chỉ nói với những người thăm dò ý kiến—và một bức tranh rất khác sẽ xuất hiện. Niềm tin không nhất thiết phải biến mất trong thế giới hiện đại; mà nó đang di cư. Với mỗi cải tiến công nghệ mới, mọi người đang quay lưng lại với các cấu trúc quyền lực truyền thống và hướng tới đám đông, thế giới vô định hình nhưng rất thực của con người và thông tin chỉ cách đó vài lần chạm.
Sự thay đổi này gây ra những mối nguy hiểm lớn; mẹ của một thiếu niên Florida đã tự tử vào năm 2024 đã đệ đơn kiện cáo buộc các chatbot của một công ty AI đã khuyến khích con trai bà tự tử. Nhưng sự thay đổi này cũng có thể mang lại lợi ích. Mặc dù những người không phải là người bản xứ kỹ thuật số có thể coi việc tin tưởng một bot là rủi ro, nhưng thực tế là nhiều người trong Thế hệ Z dường như nghĩ rằng việc tin tưởng những pháp nhân có thẩm quyền là con người thì cũng có rủi ro (nếu không muốn nói là rủi ro hơn). Nếu các công cụ AI được thiết kế cẩn thận, chúng có khả năng giúp ích—không gây hại—cho các tương tác giữa các cá nhân: chúng có thể đóng vai trò là người trung gian, giúp các nhóm phân cực giao tiếp tốt hơn với nhau; chúng có khả năng chống lại các thuyết âm mưu hiệu quả hơn những người có thẩm quyền là con người; họ cũng có thể cung cấp cảm giác về tác nhân cho những người nghi ngờ các chuyên gia con người. Thách thức đối với các nhà hoạch định chính sách, công dân và các công ty công nghệ là nhận ra bản chất của lòng tin đang phát triển như thế nào và sau đó thiết kế các công cụ và chính sách AI để ứng phó với sự chuyển đổi này. Các thế hệ trẻ sẽ không hành động như thế hệ trước của họ, và thật không khôn ngoan khi bỏ qua sự thay đổi to lớn mà họ đang mang lại.
Lòng tin sụp đổ
Niềm tin là nhu cầu cơ bản của con người: nó gắn kết mọi người và các nhóm lại với nhau và là nền tảng cho nền dân chủ, thị trường và hầu hết các khía cạnh của đời sống xã hội ngày nay. Nó hoạt động dưới nhiều hình thức. Loại niềm tin đầu tiên và đơn giản nhất là giữa các cá nhân, kiến thức trực tiếp thường gắn kết các nhóm nhỏ lại với nhau thông qua các liên kết cá nhân trực tiếp. Hãy gọi đây là "niềm tin giao tiếp bằng mắt". Nó được tìm thấy trong hầu hết các bối cảnh phi công nghiệp hóa (loại thường được các nhà nhân chủng học nghiên cứu) và cũng có trong thế giới công nghiệp hóa (giữa các nhóm bạn bè, đồng nghiệp, bạn học và các thành viên gia đình).
Tuy nhiên, khi các nhóm phát triển lớn hơn, các tương tác trực tiếp trở nên không đủ. Như Robin Dunbar, một nhà sinh học tiến hóa, đã lưu ý, số lượng người mà một bộ não con người có thể thực sự biết là có hạn; Dunbar ước tính con số đó vào khoảng 150. "Niềm tin theo chiều dọc" là sự đổi mới tuyệt vời của vài thiên niên kỷ qua, cho phép các xã hội lớn hơn hoạt động thông qua các thể chế như chính phủ, thị trường vốn, học viện và tôn giáo có tổ chức. Những hệ thống phân bổ nguồn lực, thực thi chuẩn mực, tập thể, dựa trên quy tắc này định hình cách thức và địa điểm mọi người hướng lòng tin của mình.
Quá trình số hóa xã hội trong hai thập kỷ qua đã tạo ra sự thay đổi mô hình mới vượt ra ngoài giao tiếp bằng mắt và lòng tin theo chiều dọc để trở thành thứ mà nhà khoa học xã hội Rachel Botsman gọi là "lòng tin phân tán" hoặc tương tác ngang hàng quy mô lớn. Đó là vì Internet cho phép tương tác giữa các nhóm mà không cần giao tiếp bằng mắt. Lần đầu tiên, những người hoàn toàn xa lạ có thể phối hợp với nhau để đi du lịch thông qua một ứng dụng như Airbnb, giao dịch qua eBay, giải trí cho nhau bằng cách chơi trò chơi điện tử nhiều người chơi như Fortnite và thậm chí tìm thấy tình yêu thông qua các trang web như Match(.)com.
Đối với một số người, những kết nối này có vẻ không đáng tin cậy, vì rất dễ tạo ra những nhân vật kỹ thuật số giả mạo và không có một cơ quan nào có thẩm quyền duy nhất để áp đặt và thực thi các quy tắc trực tuyến. Nhưng nhiều người vẫn hành động như thể họ tin tưởng đám đông, một phần là do các cơ chế đã xuất hiện để củng cố lòng tin, chẳng hạn như hồ sơ truyền thông xã hội, "kết bạn", các công cụ khẳng định của đám đông và đánh giá ngang hàng trực tuyến cung cấp một số phiên bản giám sát. Hãy xem xét ứng dụng chia sẻ chuyến đi Uber. Hai thập kỷ trước, thật khó có thể tưởng tượng được việc xây dựng một dịch vụ taxi khuyến khích người lạ lên xe riêng của nhau; mọi người sẽ không tin tưởng người lạ theo cách đó. Nhưng ngày nay, hàng triệu người đã làm như vậy, không chỉ vì mọi người tin tưởng Uber, như một tổ chức, mà còn vì hệ thống xếp hạng ngang hàng - giám sát đám đông - đã trấn an cả hành khách và tài xế. Theo thời gian và với động lực của công nghệ mới, các mô hình về sự tin tưởng có thể thay đổi.
Không phán xét
AI mang đến một bước ngoặt mới trong câu chuyện này, một bước ngoặt có thể được hiểu là một hình thức tin tưởng mới lạ. Công nghệ này từ lâu đã âm thầm được nhúng vào cuộc sống hàng ngày, trong các công cụ như trình kiểm tra chính tả và bộ lọc thư rác. Nhưng sự xuất hiện gần đây của AI tạo ra đánh dấu một sự thay đổi rõ rệt. Các hệ thống AI hiện tự hào về khả năng lý luận tinh vi và có thể hoạt động như các tác nhân, thực hiện các nhiệm vụ phức tạp một cách tự động. Điều này nghe có vẻ đáng sợ đối với một số người; thực tế, một cuộc thăm dò ý kiến từ Pew cho thấy chỉ có 24 phần trăm người Mỹ nghĩ rằng AI sẽ có lợi cho họ và 43 phần trăm mong đợi thấy nó "gây hại" cho họ.
Nhưng thái độ của người Mỹ đối với AI không phải là phổ biến. Một cuộc thăm dò của Ipsos năm 2024 cho thấy mặc dù khoảng hai phần ba người lớn ở Úc, Canada, Ấn Độ, Vương quốc Anh và Hoa Kỳ đồng ý rằng AI "khiến họ lo lắng", chỉ có 29 phần trăm người lớn Nhật Bản chia sẻ quan điểm đó, cũng như chỉ khoảng 40 phần trăm người lớn ở Indonesia, Ba Lan và Hàn Quốc. Và mặc dù chỉ có khoảng một phần ba người dân ở Canada, Vương quốc Anh và Hoa Kỳ đồng ý rằng họ hào hứng với AI, nhưng gần một nửa số người dân ở Nhật Bản và ba phần tư ở Hàn Quốc và Indonesia đã làm như vậy.
Trong khi đó, mặc dù người dân ở Châu Âu và Bắc Mỹ nói với những người thăm dò ý kiến rằng họ sợ AI, nhưng họ liên tục sử dụng nó cho các nhiệm vụ phức tạp trong cuộc sống của mình, chẳng hạn như chỉ đường bằng bản đồ, xác định các mặt hàng khi mua sắm và chỉnh sửa văn bản. Sự tiện lợi là một lý do: việc tìm được một bác sĩ là con người có thể mất nhiều thời gian, nhưng các bot AI luôn có sẵn. Tùy chỉnh là một lý do khác. Ở các thế hệ trước, người tiêu dùng có xu hướng chấp nhận các dịch vụ "một kích thước phù hợp với tất cả". Nhưng trong thế kỷ 21, số hóa đã cho phép mọi người đưa ra nhiều lựa chọn cá nhân hóa hơn trong thế giới tiêu dùng, dù là âm nhạc, phương tiện truyền thông hay thực phẩm. Các bot AI sẽ phản hồi và khuyến khích mong muốn tùy chỉnh ngày càng tăng này.
Một yếu tố khác, phản trực giác hơn, đó là quyền riêng tư và tính trung lập. Trong những năm gần đây, phương Tây đã có mối lo ngại rộng rãi rằng các công cụ AI sẽ "đánh cắp" dữ liệu cá nhân hoặc hoạt động thiên vị. Điều này đôi khi có thể là hợp lý. Tuy nhiên, nghiên cứu dân tộc học cho thấy rằng một nhóm người dùng thích các công cụ AI chính xác vì chúng có vẻ "trung lập" hơn, ít kiểm soát hơn và ít xâm phạm hơn con người. Một trong những người thuộc Thế hệ Z được Jigsaw phỏng vấn đã giải thích sở thích của cô ấy khi nói chuyện với AI một cách thẳng thắn: "Chatbot không thể 'phá hủy' tôi!"
Một nghiên cứu gần đây khác về những người tin vào thuyết âm mưu cho thấy họ sẵn sàng thảo luận về niềm tin của mình với bot hơn nhiều so với các thành viên gia đình hoặc những người có thẩm quyền truyền thống, ngay cả khi bot thách thức ý tưởng của họ, điều này cho thấy một cách mà tương tác giữa người và máy có thể vượt qua giao tiếp bằng mắt và cơ chế tin cậy theo chiều dọc. Như một người đã nói với các nhà nghiên cứu: "Đây là lần đầu tiên tôi nhận được phản hồi có ý nghĩa thực sự, hợp lý". Đối với những người cảm thấy bị gạt ra ngoài lề xã hội, bất lực hoặc bị tách biệt khỏi giới tinh hoa—giống như phần lớn Thế hệ Z—bot dường như ít phán đoán hơn con người và do đó trao cho người dùng nhiều quyền tự quyết hơn. Có lẽ điều này là kỳ quặc, nhưng thái độ đó khiến AI dễ được tin tưởng hơn.
Từ Hal đến Habermas
Mô hình này có thể lại thay đổi một lần nữa, xét đến tốc độ thay đổi công nghệ và sự trỗi dậy của "trí thông minh đại lý", người kế nhiệm tinh vi và tự chủ hơn của các công cụ AI tạo ra ngày nay. Các nhà phát triển AI chính, bao gồm Anthropic, Google và OpenAI, đều đang tiến tới các "trợ lý vạn năng" mới có khả năng nhìn, nghe, trò chuyện, lý luận, ghi nhớ và thực hiện hành động trên nhiều thiết bị. Điều này có nghĩa là các công cụ AI sẽ có thể đưa ra quyết định phức tạp mà không cần sự giám sát trực tiếp của con người, điều này sẽ cho phép chúng tăng cường hỗ trợ khách hàng (với các chatbot có thể đáp ứng nhu cầu của khách hàng) và mã hóa (với các tác nhân có thể giúp các kỹ sư thực hiện các nhiệm vụ phát triển phần mềm).
Các thế hệ công cụ AI mới cũng đang có được khả năng thuyết phục mạnh mẽ hơn và trong một số bối cảnh, chúng dường như có sức thuyết phục như con người. Điều này dẫn đến những nguy cơ rõ ràng nếu những công cụ này được cố tình tạo ra và sử dụng để thao túng mọi người—hoặc nếu chúng chỉ đơn giản là không hoạt động hoặc gây ảo giác. Không ai nên coi nhẹ những rủi ro đó. Tuy nhiên, thiết kế chu đáo có khả năng giảm thiểu điều này: ví dụ, các nhà nghiên cứu tại Google đã chỉ ra rằng có thể phát triển các công cụ và lời nhắc để đào tạo AI xác định và tránh ngôn ngữ thao túng. Và giống như các ứng dụng và công cụ kỹ thuật số hiện có, AI tác nhân cho phép người dùng thực hiện quyền kiểm soát.
Hãy xem xét công nghệ đeo trên người, chẳng hạn như Fitbit hoặc Apple Watch, có thể theo dõi các dấu hiệu sinh tồn, phát hiện các mô hình đáng lo ngại, đề xuất thay đổi hành vi và thậm chí cảnh báo các nhà cung cấp dịch vụ chăm sóc sức khỏe nếu cần. Trong tất cả các trường hợp này, chính người dùng, chứ không phải bot, là người quyết định có phản hồi các lời nhắc như vậy hay không và dữ liệu nào sẽ được sử dụng trong các chương trình AI; Fitbit của bạn không thể buộc bạn phải chạy bộ. Tương tự như vậy, với các bot lập kế hoạch tài chính hoặc những bot được sử dụng để hẹn hò: công nghệ không hoạt động như một nhà độc tài mà giống như một thành viên của một nhóm bạn trực tuyến, đưa ra những lời khuyên có thể bị từ chối hoặc chấp nhận.
Việc có một công cụ AI hoạt động theo cách này rõ ràng có thể giúp mọi người hiệu quả hơn và cũng giúp họ sắp xếp cuộc sống của mình tốt hơn. Nhưng điều ít rõ ràng hơn là những công cụ này cũng có khả năng cải thiện tương tác ngang hàng, trong và giữa các nhóm. Khi niềm tin vào những người có thẩm quyền đã phai nhạt và mọi người đã cố gắng tùy chỉnh các nguồn thông tin và "đám đông" trực tuyến của họ theo sở thích cá nhân, các xã hội đã trở nên phân cực hơn, bị mắc kẹt trong các phòng phản âm không tương tác hoặc hiểu nhau. Những người có thẩm quyền mà là con người thật thì không thể dễ dàng khắc phục điều đó, vì sự ngờ vực sẽ lan rộng. Nhưng cũng giống như các công cụ AI có thể dịch giữa các ngôn ngữ, chúng cũng bắt đầu có tiềm năng dịch giữa các "ngôn ngữ xã hội": nghĩa là giữa các thế giới quan. Một bot có thể quét các cuộc trò chuyện trực tuyến giữa các nhóm khác nhau và tìm ra các mô hình và điểm chung có thể được chuyển thành lời nhắc có khả năng cho phép một "đám đông" người "nghe" và thậm chí "hiểu" thế giới quan của người khác tốt hơn.
Ví dụ, các nhà nghiên cứu từ Google DeepMind và Đại học Oxford đã phát triển một công cụ AI có tên là "Habermas Machine" (một sự tôn vinh dành cho triết gia người Đức Jürgen Habermas) mong muốn hòa giải các tranh chấp giữa các nhóm có quan điểm chính trị đối lập. Nó tạo ra các tuyên bố phản ánh cả quan điểm của đa số và thiểu số trong một nhóm liên quan đến một vấn đề chính trị và sau đó đề xuất các lĩnh vực có chung quan điểm. Trong các nghiên cứu có sự tham gia của hơn 5.000 người tham gia, các tuyên bố do AI tạo ra được ưa chuộng hơn các tuyên bố do người trung gian tạo ra và việc sử dụng chúng dẫn đến sự đồng thuận lớn hơn về các con đường phía trước đối với các vấn đề gây chia rẽ.
Vậy làm thế nào để xã hội có thể gặt hái được lợi ích từ AI mà không trở thành nạn nhân của những nguy cơ của nó? Trước tiên, họ cần nhận ra rằng lòng tin là một hiện tượng đa chiều đã thay đổi trước đây (và sẽ tiếp tục thay đổi), và rằng sự thay đổi công nghệ đang diễn ra trong bối cảnh (và làm trầm trọng thêm) sự biến động xã hội. Điều đó có nghĩa là các nhà phát triển AI cần phải tiến hành rất thận trọng và khiêm tốn, thảo luận và giảm thiểu rủi ro của các công cụ mà họ phát triển. Về phần mình, Google đã cố gắng thực hiện điều này bằng cách công bố một bộ sưu tập 300 trang đầy tham vọng về các khuyến nghị về mê cung đạo đức của các trợ lý AI tiên tiến, khám phá cách duy trì các biện pháp bảo vệ ngăn chặn AI thao túng cảm xúc của người dùng và ý nghĩa của việc đo lường hạnh phúc của con người. Các công ty khác, chẳng hạn như Anthropic, cũng đang làm như vậy. Nhưng cần có nhiều sự chú ý hơn nữa từ khu vực tư nhân để giải quyết những bất ổn này.
Người tiêu dùng cũng cần có sự lựa chọn thực sự giữa các nhà phát triển, để họ có thể lựa chọn các nền tảng cung cấp nhiều quyền riêng tư, minh bạch và kiểm soát người dùng nhất. Các chính phủ có thể khuyến khích điều này bằng cách sử dụng chính sách công để thúc đẩy phát triển AI có trách nhiệm, cũng như khoa học mở và phần mềm mở. Cách tiếp cận này có thể tạo ra một số rủi ro về an toàn. Nhưng nó cũng tạo ra nhiều sự kiểm tra và cân bằng hơn bằng cách đưa vào sự cạnh tranh giữa các hệ thống khác nhau. Cũng giống như khách hàng có thể "mua sắm xung quanh" các ngân hàng hoặc dịch vụ viễn thông nếu họ không thích cách một hệ thống đối xử với họ, họ cũng có thể chuyển đổi giữa các tác nhân AI để xác định nền tảng nào cung cấp cho họ quyền kiểm soát nhiều nhất.
Tăng cường tác nhân của con người nên là mục tiêu khi suy nghĩ về cách mọi người tương tác với các nền tảng AI. Thay vì xem AI như một lãnh chúa chuyên chế và máy móc, các nhà phát triển cần trình bày nó nhiều hơn như một thành viên siêu thông minh của đám đông trực tuyến hiện có của mọi người. Điều đó không có nghĩa là mọi người đặt niềm tin mù quáng vào AI hoặc sử dụng nó để thay thế các tương tác giữa người với người; điều đó sẽ là thảm họa. Nhưng cũng thật ngu ngốc khi từ chối AI chỉ vì nó có vẻ xa lạ. AI, giống như con người, có khả năng làm điều tốt và điều xấu và hành động theo những cách đáng tin cậy và không đáng tin cậy. Nếu chúng ta muốn mở khóa toàn bộ lợi ích của AI, chúng ta cần nhận ra rằng chúng ta đang sống trong một thế giới mà niềm tin vào các nhà lãnh đạo đang sụp đổ, ngay cả khi chúng ta đặt nhiều niềm tin hơn vào trí tuệ của đám đông — và chính chúng ta. Thách thức đặt ra là sử dụng sự thúc đẩy kỹ thuật số này vào trí tuệ của đám đông để giúp tất cả chúng ta trở nên khôn ngoan hơn.
Nguồn: Cù Tuấn biên dịch bài phân tích công nghệ-xã hội của Foreign Affairs.