Контент, що генерується штучним інтелектом, включаючи дипфейки та фальшивий аудіо, розмиває межі між реальністю та вигадкою, що призводить до широкого непорозуміння та маніпуляцій. Експерти, такі як Яннік Місон, прихильники вбудовування верифікації на етапі створення контенту та впровадження децентралізованих систем верифікації для забезпечення автентичності.
Дезінформація та її небезпеки
Рік 2024 став яскравим попередженням про небезпеки, які штучний інтелект (AI) може становити, якщо не буде вжито жодних заходів безпеки. По всьому світу, від величезної демократичної практики Індії до напруженого політичного клімату Тайваню, кампанії з дезінформації, згенеровані ШІ, залишили свій слід.
У Тайвані новинні ведучі з використанням дипфейків розмили межі між реальністю та вигадкою, тоді як у Сполучених Штатах фальшивий аудіозапис президента Байдена, який нібито відмовляв демократів Нью-Гемпшира від голосування, підкреслив легкість, з якою штучний інтелект може бути використаний для політичних маніпуляцій. Численні обсяги та складність цих синтетичних медіа залишили багатьох у стані невизначеності, намагаючись розрізнити факти від вигадки.
Однак деякі експерти, такі як Яннік Майсон, засновник і генеральний директор Swarm Network, стверджують, що проблема є глибшою, ніж маніпуляції на виборах. Він згадує про психоз, викликаний ШІ, тривожне явище, коли люди розвивають грандіозні делюзії, яке, за деякими дослідженнями, пов'язане з тривалими взаємодіями з чат-ботами на основі ШІ. Вартість цього психозу, викликаного ШІ, була величезною; деякі втратили роботу, а інші потрапили на психіатричне лікування.
"Так само, як дипфейки використовують наші візуальні обробні скорочення, психоз штучного інтелекту експлуатує наші психологічні вразливості, а чат-боти виступають ідеальними ехо-камерами, які підтверджують і посилюють делюзійне мислення," - сказав Майсон.
Централізовані vs. Децентралізовані рішення
Майсон вважає, що нинішні реактивні заходи, такі як фрагментарні ініціативи перевірки фактів, просто недостатні для боротьби з цією ескалуючою проблемою. "Те, до чого прокидається індустрія, це те, що фрагментарна перевірка фактів не може встигнути за швидкістю синтетичних медіа або психологічною маніпуляцією систем штучного інтелекту," стверджує він.
Його рішення, втілене в Swarm Network, є проактивним: впровадження верифікації в масштабах. Це передбачає встановлення походження в самий момент створення контенту, забезпечуючи можливість відстеження та автентифікації походження цифрової інформації. Крім того, Майсон прихильник децентралізованих систем верифікації, де інформація перевіряється та валідується в міру її поширення в цифровій сфері.
Ця перспектива міцної "інфраструктури правди" відгукується зростаючою стурбованістю в індустрії ШІ. Оскільки технологія продовжує розвиватися з швидкою швидкістю, етичні та соціальні наслідки її неналежного використання стають все більш очевидними. Підрив довіри до цифрової інформації, підживлюваний складними фальшивками, створеними ШІ, становить значну загрозу демократичним процесам, соціальній згуртованості та навіть індивідуальному психічному благополуччю.
Щоб протистояти цьому, деякі прихильники закликали до регуляторної реакції, наводячи минулі випадки, коли це виявилося життєво важливим інструментом для захисту користувачів від потенційних ризиків, пов'язаних з новими технологіями. Однак критики застерігають, що це може мати ненавмисний ефект придушення інновацій, з чим, здається, погоджується Myson.
«Регулювання може допомогти, але лише якщо воно уникне пастки централізації істини. Ми бачили, як уряди використовують «закони про дезінформацію», щоб заглушити дискусію», – зазначив генеральний директор Swarm Network.
Щоб підтвердити це твердження, Майсон вказав на те, як європейські бюрократи, як повідомляється, використовують (ЄС) Закон про цифрові послуги (ЗП) Європейського Союзу, який вимагає видалення широко визначеного "шкідливого" контенту, як "інструмент для стримування відкритої дискусії в усьому світі." Майсон стверджує, що Закон ЄС про штучний інтелект також створює подібні проблеми.
Замість того, щоб ухвалювати законодавчі акти, такі як DSA або AI Act, Myson натомість прихильник вимоги прозорості, чіткого маркування синтетичних медіа та відкритих стандартів походження, таких як C2PA. "Правила повинні забезпечувати доказ, а не думку", - стверджував він.
Майбутнє верифікації
Згідно з генеральним директором, основні соціальні медіа-платформи, такі як Meta та TikTok, визнають це і з тих пір перейшли до більш децентралізованих підходів до верифікації фактів.
“Ця зміна представляє собою фундаментальне визнання того, що централізована перевірка фактів створює вузькі місця та єдині точки відмови. Майбутнє верифікації контенту не полягає в наданні урядам або корпораціям влади вирішувати, що є істинним,” заявив генеральний директор.
Myson вважає, що цей зсув робить рішення, такі як те, що пропонує Swarm Network, надзвичайно важливими. Замість того, щоб покладатися на кілька централізованих перевірників фактів, Swarm використовує "AI агенти, що працюють разом з людськими рецензентами, щоб створити перевірений запис, що підлягає аудиту, в блокчейні".
Дійсно, агенти штучного інтелекту швидко переходять від теоретичних концепцій до практичних застосувань, кардинально змінюючи спосіб функціонування різних секторів. Основна перевага цих агентів полягає в їхній здатності автоматизувати та оптимізувати. Вони можуть обробляти величезні обсяги даних за короткий період, виявляти шаблони, які можуть пропустити люди, та працювати цілодобово без втоми.
Проте, широке впровадження агентів ШІ також вводить складні виклики, які потрібно ретельно вирішувати. Щоб подолати деякі з цих викликів, Місон сказав, що підхід його компанії «полягає в тому, щоб перетворити агентів на прозорих співробітників, а не на неконтрольованих оракулів». Він додав:
"У Swarm агенти розкладають інформацію на малі, тестовані твердження, перехресно перевіряють одне одного, а там, де потрібна нюансність, втручаються люди. Кожен крок фіксується та закріплюється в ланцюгу, тому їхні міркування можна відтворити. Коротко: жодних чорних ящиків, лише перевіряні сліди."
Тим часом, Майсон вважає, що протягом наступних п'яти років перевірка фактів еволюціонує з ручного процесу в вбудовану функцію цифрового життя, а агенти ШІ будуть оцінюватись за їхньою прозорістю, а не тільки швидкістю. Остаточне бачення полягає в тому, щоб зробити правду фундаментальним шаром інтернету.
“Таким же чином, як SSL став стандартом для веб-трафіку, протокол правди стане стандартом для інформації. І так ми запобіжимо тому, щоб ШІ затопив світ шумом,” - підсумував Майсон.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Експерт з ШІ: Протоколи правди можуть стати SSL епохи інформації
Контент, що генерується штучним інтелектом, включаючи дипфейки та фальшивий аудіо, розмиває межі між реальністю та вигадкою, що призводить до широкого непорозуміння та маніпуляцій. Експерти, такі як Яннік Місон, прихильники вбудовування верифікації на етапі створення контенту та впровадження децентралізованих систем верифікації для забезпечення автентичності.
Дезінформація та її небезпеки
Рік 2024 став яскравим попередженням про небезпеки, які штучний інтелект (AI) може становити, якщо не буде вжито жодних заходів безпеки. По всьому світу, від величезної демократичної практики Індії до напруженого політичного клімату Тайваню, кампанії з дезінформації, згенеровані ШІ, залишили свій слід.
У Тайвані новинні ведучі з використанням дипфейків розмили межі між реальністю та вигадкою, тоді як у Сполучених Штатах фальшивий аудіозапис президента Байдена, який нібито відмовляв демократів Нью-Гемпшира від голосування, підкреслив легкість, з якою штучний інтелект може бути використаний для політичних маніпуляцій. Численні обсяги та складність цих синтетичних медіа залишили багатьох у стані невизначеності, намагаючись розрізнити факти від вигадки.
Однак деякі експерти, такі як Яннік Майсон, засновник і генеральний директор Swarm Network, стверджують, що проблема є глибшою, ніж маніпуляції на виборах. Він згадує про психоз, викликаний ШІ, тривожне явище, коли люди розвивають грандіозні делюзії, яке, за деякими дослідженнями, пов'язане з тривалими взаємодіями з чат-ботами на основі ШІ. Вартість цього психозу, викликаного ШІ, була величезною; деякі втратили роботу, а інші потрапили на психіатричне лікування.
"Так само, як дипфейки використовують наші візуальні обробні скорочення, психоз штучного інтелекту експлуатує наші психологічні вразливості, а чат-боти виступають ідеальними ехо-камерами, які підтверджують і посилюють делюзійне мислення," - сказав Майсон.
Централізовані vs. Децентралізовані рішення
Майсон вважає, що нинішні реактивні заходи, такі як фрагментарні ініціативи перевірки фактів, просто недостатні для боротьби з цією ескалуючою проблемою. "Те, до чого прокидається індустрія, це те, що фрагментарна перевірка фактів не може встигнути за швидкістю синтетичних медіа або психологічною маніпуляцією систем штучного інтелекту," стверджує він.
Його рішення, втілене в Swarm Network, є проактивним: впровадження верифікації в масштабах. Це передбачає встановлення походження в самий момент створення контенту, забезпечуючи можливість відстеження та автентифікації походження цифрової інформації. Крім того, Майсон прихильник децентралізованих систем верифікації, де інформація перевіряється та валідується в міру її поширення в цифровій сфері.
Ця перспектива міцної "інфраструктури правди" відгукується зростаючою стурбованістю в індустрії ШІ. Оскільки технологія продовжує розвиватися з швидкою швидкістю, етичні та соціальні наслідки її неналежного використання стають все більш очевидними. Підрив довіри до цифрової інформації, підживлюваний складними фальшивками, створеними ШІ, становить значну загрозу демократичним процесам, соціальній згуртованості та навіть індивідуальному психічному благополуччю.
Щоб протистояти цьому, деякі прихильники закликали до регуляторної реакції, наводячи минулі випадки, коли це виявилося життєво важливим інструментом для захисту користувачів від потенційних ризиків, пов'язаних з новими технологіями. Однак критики застерігають, що це може мати ненавмисний ефект придушення інновацій, з чим, здається, погоджується Myson.
«Регулювання може допомогти, але лише якщо воно уникне пастки централізації істини. Ми бачили, як уряди використовують «закони про дезінформацію», щоб заглушити дискусію», – зазначив генеральний директор Swarm Network.
Щоб підтвердити це твердження, Майсон вказав на те, як європейські бюрократи, як повідомляється, використовують (ЄС) Закон про цифрові послуги (ЗП) Європейського Союзу, який вимагає видалення широко визначеного "шкідливого" контенту, як "інструмент для стримування відкритої дискусії в усьому світі." Майсон стверджує, що Закон ЄС про штучний інтелект також створює подібні проблеми.
Замість того, щоб ухвалювати законодавчі акти, такі як DSA або AI Act, Myson натомість прихильник вимоги прозорості, чіткого маркування синтетичних медіа та відкритих стандартів походження, таких як C2PA. "Правила повинні забезпечувати доказ, а не думку", - стверджував він.
Майбутнє верифікації
Згідно з генеральним директором, основні соціальні медіа-платформи, такі як Meta та TikTok, визнають це і з тих пір перейшли до більш децентралізованих підходів до верифікації фактів.
“Ця зміна представляє собою фундаментальне визнання того, що централізована перевірка фактів створює вузькі місця та єдині точки відмови. Майбутнє верифікації контенту не полягає в наданні урядам або корпораціям влади вирішувати, що є істинним,” заявив генеральний директор.
Myson вважає, що цей зсув робить рішення, такі як те, що пропонує Swarm Network, надзвичайно важливими. Замість того, щоб покладатися на кілька централізованих перевірників фактів, Swarm використовує "AI агенти, що працюють разом з людськими рецензентами, щоб створити перевірений запис, що підлягає аудиту, в блокчейні".
Дійсно, агенти штучного інтелекту швидко переходять від теоретичних концепцій до практичних застосувань, кардинально змінюючи спосіб функціонування різних секторів. Основна перевага цих агентів полягає в їхній здатності автоматизувати та оптимізувати. Вони можуть обробляти величезні обсяги даних за короткий період, виявляти шаблони, які можуть пропустити люди, та працювати цілодобово без втоми.
Проте, широке впровадження агентів ШІ також вводить складні виклики, які потрібно ретельно вирішувати. Щоб подолати деякі з цих викликів, Місон сказав, що підхід його компанії «полягає в тому, щоб перетворити агентів на прозорих співробітників, а не на неконтрольованих оракулів». Він додав:
"У Swarm агенти розкладають інформацію на малі, тестовані твердження, перехресно перевіряють одне одного, а там, де потрібна нюансність, втручаються люди. Кожен крок фіксується та закріплюється в ланцюгу, тому їхні міркування можна відтворити. Коротко: жодних чорних ящиків, лише перевіряні сліди."
Тим часом, Майсон вважає, що протягом наступних п'яти років перевірка фактів еволюціонує з ручного процесу в вбудовану функцію цифрового життя, а агенти ШІ будуть оцінюватись за їхньою прозорістю, а не тільки швидкістю. Остаточне бачення полягає в тому, щоб зробити правду фундаментальним шаром інтернету.
“Таким же чином, як SSL став стандартом для веб-трафіку, протокол правди стане стандартом для інформації. І так ми запобіжимо тому, щоб ШІ затопив світ шумом,” - підсумував Майсон.