Nội dung do AI tạo ra, bao gồm deepfake và âm thanh giả, đã làm mờ ranh giới giữa thực tế và hư cấu, dẫn đến sự nhầm lẫn và thao túng rộng rãi. Các chuyên gia như Yannick Myson advocate việc nhúng xác minh ngay từ giai đoạn tạo nội dung và triển khai các hệ thống xác minh phi tập trung để đảm bảo tính xác thực.
Thông tin sai lệch và những nguy hiểm của nó
Năm 2024 đã đóng vai trò như một cảnh báo rõ ràng về những nguy hiểm mà trí tuệ nhân tạo (AI) có thể gây ra nếu không có biện pháp bảo vệ nào được thực hiện. Trên toàn cầu, từ cuộc bầu cử dân chủ quy mô lớn của Ấn Độ đến bầu không khí chính trị căng thẳng của Đài Loan, các chiến dịch thông tin sai lệch do AI tạo ra đã để lại dấu ấn của chúng.
Tại Đài Loan, các phát thanh viên deepfake đã làm mờ ranh giới giữa thực tế và hư cấu, trong khi ở Hoa Kỳ, một đoạn audio giả của Tổng thống Biden được cho là đã khuyên những người Dân chủ ở New Hampshire không nên bỏ phiếu đã nhấn mạnh sự dễ dàng mà AI có thể được sử dụng như một vũ khí cho sự thao túng chính trị. Khối lượng và độ tinh vi của phương tiện tổng hợp này đã khiến nhiều người cảm thấy lạc lõng trong một biển không chắc chắn, vật lộn để phân biệt sự thật và hư cấu.
Tuy nhiên, một số chuyên gia, như Yannick Myson, người sáng lập và Giám đốc điều hành của Swarm Network, lập luận rằng vấn đề phức tạp hơn so với việc thao túng bầu cử. Ông trích dẫn hiện tượng loạn thần do AI gây ra, một hiện tượng đáng lo ngại khi mọi người phát triển những ảo tưởng vĩ đại, mà một số nghiên cứu liên kết với việc tương tác kéo dài với các chatbot AI. Chi phí của loạn thần do AI gây ra là rất lớn; một số người đã mất việc làm trong khi những người khác đã phải điều trị tâm thần.
“Cũng giống như deepfake khai thác những lối tắt trong xử lý hình ảnh của chúng ta, tâm thần học AI khai thác những điểm yếu tâm lý của chúng ta, với các chatbot phục vụ như những buồng vang hoàn hảo xác nhận và khuếch đại những suy nghĩ ảo tưởng,” Myson nói.
Giải pháp Tập trung vs. Phi tập trung
Myson tin rằng các biện pháp phản ứng hiện tại, chẳng hạn như các sáng kiến kiểm tra sự thật tạm thời, là không đủ để chống lại vấn đề đang gia tăng này. “Điều mà ngành công nghiệp đang nhận thức được là các kiểm tra sự thật tạm thời không thể theo kịp với tốc độ của phương tiện truyền thông tổng hợp hoặc sự thao túng tâm lý của các hệ thống AI,” ông khẳng định.
Giải pháp của ông, được thể hiện trong Mạng Swarm, là một giải pháp chủ động: nhúng xác minh ở quy mô lớn. Điều này liên quan đến việc thiết lập nguồn gốc ngay tại điểm tạo ra nội dung, đảm bảo rằng nguồn gốc của thông tin kỹ thuật số có thể được truy vết và xác thực. Hơn nữa, Myson advocate cho các hệ thống xác minh phi tập trung, nơi thông tin được kiểm tra chéo và xác nhận khi nó lan rộng trong không gian kỹ thuật số.
Tầm nhìn về một "hệ thống hạ tầng sự thật" vững chắc này phù hợp với mối quan tâm ngày càng tăng trong ngành công nghiệp AI. Khi công nghệ tiếp tục phát triển với tốc độ nhanh chóng, những tác động đạo đức và xã hội của việc lạm dụng nó ngày càng trở nên rõ ràng. Sự suy giảm niềm tin vào thông tin kỹ thuật số, do các thông tin sai lệch được tạo ra bởi AI tinh vi, đặt ra một mối đe dọa đáng kể đối với các quy trình dân chủ, sự gắn kết xã hội và thậm chí là sức khỏe tâm thần của từng cá nhân.
Để chống lại điều này, một số người đã advocate cho một phản ứng quy định, dẫn chứng các trường hợp trong quá khứ khi điều này chứng minh là một công cụ quan trọng trong việc bảo vệ người dùng khỏi những rủi ro tiềm ẩn liên quan đến các công nghệ mới nổi. Tuy nhiên, các nhà phê bình cảnh báo rằng điều này có thể có tác dụng không mong muốn là kìm hãm sự đổi mới, một lập luận mà Myson dường như đồng ý.
“Quy định có thể giúp đỡ, nhưng chỉ khi nó tránh được cái bẫy của việc tập trung sự thật. Chúng ta đã thấy các chính phủ sử dụng ‘luật thông tin sai lệch’ để làm im lặng tranh luận,” CEO của Swarm Network cho biết.
Để chứng minh cho sự khẳng định này, Myson chỉ ra cách mà các nhà quan liêu EU đang được cho là sử dụng Đạo luật Dịch vụ Kỹ thuật số (EU) của Liên minh Châu Âu (DSA), mà yêu cầu xóa bỏ các nội dung “có hại” được định nghĩa một cách rộng rãi, như “một công cụ để kiềm chế sự thảo luận công khai trên toàn thế giới.” Myson lập luận rằng Đạo luật AI của EU cũng tạo ra những vấn đề tương tự.
Thay vì ban hành các luật như DSA hoặc AI Act, Myson lại advocate việc yêu cầu tính minh bạch, nhãn rõ ràng cho phương tiện tổng hợp, và các tiêu chuẩn nguồn gốc mở như C2PA. “Các quy tắc nên thực thi bằng chứng, không phải ý kiến,” ông lập luận.
Tương Lai của Xác Minh
Theo Giám đốc điều hành, các nền tảng truyền thông xã hội lớn như Meta và TikTok nhận ra điều này và đã chuyển hướng sang các phương pháp xác minh thông tin phân quyền hơn.
“Sự chuyển mình này thể hiện một sự công nhận cơ bản rằng việc kiểm tra thông tin trung ương tạo ra những nút thắt và điểm thất bại duy nhất. Tương lai của việc xác minh nội dung không phải là việc trao quyền cho chính phủ hoặc các tập đoàn quyết định điều gì là đúng,” giám đốc điều hành đã phát biểu.
Myson tin rằng sự chuyển biến này khiến các giải pháp như cái mà Swarm Network cung cấp trở nên quan trọng. Thay vì dựa vào một vài người xác minh tập trung, Swarm sử dụng "các tác nhân AI làm việc cùng với các người đánh giá con người để tạo ra một hồ sơ có thể kiểm tra được, trên chuỗi của các tuyên bố đã được xác minh."
Thật vậy, các tác nhân AI đang nhanh chóng chuyển từ các khái niệm lý thuyết sang các ứng dụng thực tiễn, thay đổi cơ bản cách hoạt động của các lĩnh vực khác nhau. Lợi ích chính của những tác nhân này là khả năng tự động hóa và tối ưu hóa. Chúng có thể xử lý một khối lượng lớn dữ liệu trong thời gian ngắn, xác định các mẫu mà con người có thể bỏ lỡ, và hoạt động 24/7 mà không bị mệt mỏi.
Tuy nhiên, việc áp dụng rộng rãi các đại lý AI cũng đưa ra những thách thức phức tạp cần được giải quyết một cách cẩn thận. Để vượt qua một số thách thức này, Myson cho biết cách tiếp cận của công ty ông "là biến các đại lý thành những cộng tác viên minh bạch, không phải là những nhà tiên tri không kiểm soát." Ông đã thêm:
“Trong Swarm, các tác nhân phân tách thông tin thành những tuyên bố nhỏ, có thể kiểm tra được, họ kiểm tra lẫn nhau, và khi cần thiết có sự tinh tế, con người sẽ can thiệp. Mỗi bước đều được ghi lại và gắn vào chuỗi, vì vậy lý do của họ có thể được phát lại. Tóm lại: không có hộp đen, chỉ có những dấu vết có thể xác minh.”
Trong khi đó, Myson tin rằng, trong năm năm tới, việc xác minh thông tin sẽ phát triển từ một quy trình thủ công thành một tính năng tích hợp trong cuộc sống kỹ thuật số, và các đại lý AI sẽ được đánh giá dựa trên tính minh bạch của chúng, không chỉ tốc độ. Tầm nhìn cuối cùng là biến sự thật thành một lớp nền tảng của internet.
“Cũng giống như SSL trở thành mặc định cho lưu lượng web, một giao thức chân thực sẽ trở thành mặc định cho thông tin. Và đó là cách chúng ta ngăn AI làm ngập thế giới trong tiếng ồn,” Myson kết luận.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Chuyên gia AI: Giao thức Truth có thể trở thành SSL của Thời đại Thông tin
Nội dung do AI tạo ra, bao gồm deepfake và âm thanh giả, đã làm mờ ranh giới giữa thực tế và hư cấu, dẫn đến sự nhầm lẫn và thao túng rộng rãi. Các chuyên gia như Yannick Myson advocate việc nhúng xác minh ngay từ giai đoạn tạo nội dung và triển khai các hệ thống xác minh phi tập trung để đảm bảo tính xác thực.
Thông tin sai lệch và những nguy hiểm của nó
Năm 2024 đã đóng vai trò như một cảnh báo rõ ràng về những nguy hiểm mà trí tuệ nhân tạo (AI) có thể gây ra nếu không có biện pháp bảo vệ nào được thực hiện. Trên toàn cầu, từ cuộc bầu cử dân chủ quy mô lớn của Ấn Độ đến bầu không khí chính trị căng thẳng của Đài Loan, các chiến dịch thông tin sai lệch do AI tạo ra đã để lại dấu ấn của chúng.
Tại Đài Loan, các phát thanh viên deepfake đã làm mờ ranh giới giữa thực tế và hư cấu, trong khi ở Hoa Kỳ, một đoạn audio giả của Tổng thống Biden được cho là đã khuyên những người Dân chủ ở New Hampshire không nên bỏ phiếu đã nhấn mạnh sự dễ dàng mà AI có thể được sử dụng như một vũ khí cho sự thao túng chính trị. Khối lượng và độ tinh vi của phương tiện tổng hợp này đã khiến nhiều người cảm thấy lạc lõng trong một biển không chắc chắn, vật lộn để phân biệt sự thật và hư cấu.
Tuy nhiên, một số chuyên gia, như Yannick Myson, người sáng lập và Giám đốc điều hành của Swarm Network, lập luận rằng vấn đề phức tạp hơn so với việc thao túng bầu cử. Ông trích dẫn hiện tượng loạn thần do AI gây ra, một hiện tượng đáng lo ngại khi mọi người phát triển những ảo tưởng vĩ đại, mà một số nghiên cứu liên kết với việc tương tác kéo dài với các chatbot AI. Chi phí của loạn thần do AI gây ra là rất lớn; một số người đã mất việc làm trong khi những người khác đã phải điều trị tâm thần.
“Cũng giống như deepfake khai thác những lối tắt trong xử lý hình ảnh của chúng ta, tâm thần học AI khai thác những điểm yếu tâm lý của chúng ta, với các chatbot phục vụ như những buồng vang hoàn hảo xác nhận và khuếch đại những suy nghĩ ảo tưởng,” Myson nói.
Giải pháp Tập trung vs. Phi tập trung
Myson tin rằng các biện pháp phản ứng hiện tại, chẳng hạn như các sáng kiến kiểm tra sự thật tạm thời, là không đủ để chống lại vấn đề đang gia tăng này. “Điều mà ngành công nghiệp đang nhận thức được là các kiểm tra sự thật tạm thời không thể theo kịp với tốc độ của phương tiện truyền thông tổng hợp hoặc sự thao túng tâm lý của các hệ thống AI,” ông khẳng định.
Giải pháp của ông, được thể hiện trong Mạng Swarm, là một giải pháp chủ động: nhúng xác minh ở quy mô lớn. Điều này liên quan đến việc thiết lập nguồn gốc ngay tại điểm tạo ra nội dung, đảm bảo rằng nguồn gốc của thông tin kỹ thuật số có thể được truy vết và xác thực. Hơn nữa, Myson advocate cho các hệ thống xác minh phi tập trung, nơi thông tin được kiểm tra chéo và xác nhận khi nó lan rộng trong không gian kỹ thuật số.
Tầm nhìn về một "hệ thống hạ tầng sự thật" vững chắc này phù hợp với mối quan tâm ngày càng tăng trong ngành công nghiệp AI. Khi công nghệ tiếp tục phát triển với tốc độ nhanh chóng, những tác động đạo đức và xã hội của việc lạm dụng nó ngày càng trở nên rõ ràng. Sự suy giảm niềm tin vào thông tin kỹ thuật số, do các thông tin sai lệch được tạo ra bởi AI tinh vi, đặt ra một mối đe dọa đáng kể đối với các quy trình dân chủ, sự gắn kết xã hội và thậm chí là sức khỏe tâm thần của từng cá nhân.
Để chống lại điều này, một số người đã advocate cho một phản ứng quy định, dẫn chứng các trường hợp trong quá khứ khi điều này chứng minh là một công cụ quan trọng trong việc bảo vệ người dùng khỏi những rủi ro tiềm ẩn liên quan đến các công nghệ mới nổi. Tuy nhiên, các nhà phê bình cảnh báo rằng điều này có thể có tác dụng không mong muốn là kìm hãm sự đổi mới, một lập luận mà Myson dường như đồng ý.
“Quy định có thể giúp đỡ, nhưng chỉ khi nó tránh được cái bẫy của việc tập trung sự thật. Chúng ta đã thấy các chính phủ sử dụng ‘luật thông tin sai lệch’ để làm im lặng tranh luận,” CEO của Swarm Network cho biết.
Để chứng minh cho sự khẳng định này, Myson chỉ ra cách mà các nhà quan liêu EU đang được cho là sử dụng Đạo luật Dịch vụ Kỹ thuật số (EU) của Liên minh Châu Âu (DSA), mà yêu cầu xóa bỏ các nội dung “có hại” được định nghĩa một cách rộng rãi, như “một công cụ để kiềm chế sự thảo luận công khai trên toàn thế giới.” Myson lập luận rằng Đạo luật AI của EU cũng tạo ra những vấn đề tương tự.
Thay vì ban hành các luật như DSA hoặc AI Act, Myson lại advocate việc yêu cầu tính minh bạch, nhãn rõ ràng cho phương tiện tổng hợp, và các tiêu chuẩn nguồn gốc mở như C2PA. “Các quy tắc nên thực thi bằng chứng, không phải ý kiến,” ông lập luận.
Tương Lai của Xác Minh
Theo Giám đốc điều hành, các nền tảng truyền thông xã hội lớn như Meta và TikTok nhận ra điều này và đã chuyển hướng sang các phương pháp xác minh thông tin phân quyền hơn.
“Sự chuyển mình này thể hiện một sự công nhận cơ bản rằng việc kiểm tra thông tin trung ương tạo ra những nút thắt và điểm thất bại duy nhất. Tương lai của việc xác minh nội dung không phải là việc trao quyền cho chính phủ hoặc các tập đoàn quyết định điều gì là đúng,” giám đốc điều hành đã phát biểu.
Myson tin rằng sự chuyển biến này khiến các giải pháp như cái mà Swarm Network cung cấp trở nên quan trọng. Thay vì dựa vào một vài người xác minh tập trung, Swarm sử dụng "các tác nhân AI làm việc cùng với các người đánh giá con người để tạo ra một hồ sơ có thể kiểm tra được, trên chuỗi của các tuyên bố đã được xác minh."
Thật vậy, các tác nhân AI đang nhanh chóng chuyển từ các khái niệm lý thuyết sang các ứng dụng thực tiễn, thay đổi cơ bản cách hoạt động của các lĩnh vực khác nhau. Lợi ích chính của những tác nhân này là khả năng tự động hóa và tối ưu hóa. Chúng có thể xử lý một khối lượng lớn dữ liệu trong thời gian ngắn, xác định các mẫu mà con người có thể bỏ lỡ, và hoạt động 24/7 mà không bị mệt mỏi.
Tuy nhiên, việc áp dụng rộng rãi các đại lý AI cũng đưa ra những thách thức phức tạp cần được giải quyết một cách cẩn thận. Để vượt qua một số thách thức này, Myson cho biết cách tiếp cận của công ty ông "là biến các đại lý thành những cộng tác viên minh bạch, không phải là những nhà tiên tri không kiểm soát." Ông đã thêm:
“Trong Swarm, các tác nhân phân tách thông tin thành những tuyên bố nhỏ, có thể kiểm tra được, họ kiểm tra lẫn nhau, và khi cần thiết có sự tinh tế, con người sẽ can thiệp. Mỗi bước đều được ghi lại và gắn vào chuỗi, vì vậy lý do của họ có thể được phát lại. Tóm lại: không có hộp đen, chỉ có những dấu vết có thể xác minh.”
Trong khi đó, Myson tin rằng, trong năm năm tới, việc xác minh thông tin sẽ phát triển từ một quy trình thủ công thành một tính năng tích hợp trong cuộc sống kỹ thuật số, và các đại lý AI sẽ được đánh giá dựa trên tính minh bạch của chúng, không chỉ tốc độ. Tầm nhìn cuối cùng là biến sự thật thành một lớp nền tảng của internet.
“Cũng giống như SSL trở thành mặc định cho lưu lượng web, một giao thức chân thực sẽ trở thành mặc định cho thông tin. Và đó là cách chúng ta ngăn AI làm ngập thế giới trong tiếng ồn,” Myson kết luận.