Conteúdo gerado por IA, incluindo deepfakes e áudio falso, borraram as linhas entre a realidade e a fabricação, levando a uma ampla confusão e manipulação. Especialistas como Yannick Myson advogam a incorporação de verificação na fase de criação de conteúdo e a implementação de sistemas de verificação descentralizados para garantir a autenticidade.
Desinformação e Seus Perigos
O ano de 2024 serviu como um aviso contundente sobre os perigos que a inteligência artificial (AI) pode representar se não forem implementadas salvaguardas. Em todo o mundo, desde o enorme exercício democrático da Índia até o clima político tenso de Taiwan, campanhas de desinformação geradas por IA deixaram sua marca.
Em Taiwan, âncoras de notícias deepfake borraram as linhas entre a realidade e a fabricação, enquanto nos Estados Unidos, um áudio falso do Presidente Biden supostamente desencorajando os democratas de New Hampshire a votar sublinhou a facilidade com que a IA pode ser armada para manipulação política. O volume e a sofisticação deste média sintética deixaram muitos a sentir-se à deriva em um mar de incerteza, lutando para discernir o fato da ficção.
No entanto, alguns especialistas, como Yannick Myson, fundador e CEO da Swarm Network, argumentam que o problema é mais profundo do que a manipulação eleitoral. Ele cita a psicose induzida por IA, um fenômeno perturbador de pessoas desenvolvendo delírios grandiosos, que alguns estudos ligam a interações prolongadas com chatbots de IA. O custo dessa psicose induzida por IA tem sido imenso; alguns perderam empregos enquanto outros acabaram em tratamento psiquiátrico.
“Assim como os deepfakes exploram os nossos atalhos de processamento visual, a psicose da IA explora as nossas vulnerabilidades psicológicas, com os chatbots a servirem como câmaras de eco perfeitas que validam e amplificam o pensamento delirante,” disse Myson.
Soluções Centralizadas vs. Descentralizadas
Myson acredita que as atuais medidas reativas, como iniciativas de verificação de fatos em mosaico, são simplesmente insuficientes para combater este problema em escalada. "O que a indústria está percebendo é que a verificação de fatos em mosaico não consegue acompanhar a velocidade da mídia sintética ou a manipulação psicológica dos sistemas de IA," afirma ele.
A sua solução, incorporada na Swarm Network, é proativa: integrar a verificação em grande escala. Isso envolve estabelecer a proveniência no próprio momento da criação de conteúdo, garantindo que a origem da informação digital possa ser rastreada e autenticada. Além disso, Myson defende sistemas de verificação descentralizados, onde a informação é verificada e validada à medida que se espalha pela esfera digital.
Esta visão de uma robusta "infraestrutura de verdade" ressoa com uma preocupação crescente dentro da indústria de IA. À medida que a tecnologia continua a avançar a um ritmo acelerado, as implicações éticas e sociais do seu uso indevido tornam-se cada vez mais evidentes. A erosão da confiança na informação digital, alimentada por falsashoods geradas por IA sofisticada, representa uma ameaça significativa aos processos democráticos, à coesão social e até mesmo ao bem-estar mental individual.
Para combater isso, alguns advogados defenderam uma resposta regulatória, citando instâncias passadas em que isso se provou uma ferramenta vital na proteção dos usuários contra os riscos potenciais associados a tecnologias emergentes. No entanto, críticos alertam que isso poderia ter o efeito não intencional de sufocar a inovação, uma alegação com a qual Myson parece concordar.
“A regulamentação pode ajudar, mas apenas se evitar a armadilha de centralizar a verdade. Vimos governos armarem-se com as ‘leis de desinformação’ para silenciar o debate,” afirmou o CEO da Swarm Network.
Para apoiar esta afirmação, Myson apontou como os burocratas da UE estão supostamente usando a (EU) Lei dos Serviços Digitais da União Europeia (DSA), que exige a remoção de conteúdo "nocivo" amplamente definido, como "uma ferramenta para restringir o discurso aberto em todo o mundo." Myson argumenta que a Lei de IA da UE também cria problemas semelhantes.
Em vez de promulgar peças como o DSA ou a Lei da IA, Myson em vez disso advoga por exigir transparência, rotulagem clara de mídia sintética e padrões de proveniência abertos como o C2PA. "As regras devem impor prova, não opinião", argumentou.
O Futuro da Verificação
De acordo com o CEO, grandes plataformas de redes sociais como a Meta e o TikTok reconhecem isso e desde então mudaram para abordagens mais descentralizadas de verificação de factos.
“Esta mudança representa um reconhecimento fundamental de que a verificação de factos centralizada cria estrangulamentos e pontos únicos de falha. O futuro da verificação de conteúdo não é sobre dar aos governos ou às corporações o poder de decidir o que é verdade,” afirmou o CEO.
Myson acredita que esta mudança torna soluções como a oferecida pela Swarm Network cruciais. Em vez de depender de um punhado de verificadores de fatos centralizados, a Swarm utiliza "agentes de IA trabalhando ao lado de revisores humanos para criar um registo audível e on-chain de reivindicações verificadas."
De facto, os agentes de IA estão a passar rapidamente de conceitos teóricos para aplicações práticas, mudando fundamentalmente a forma como vários setores operam. O principal benefício destes agentes é a sua capacidade de automatizar e otimizar. Eles podem processar quantidades vastas de dados em um curto período, identificar padrões que os humanos podem perder e operar 24 horas por dia, 7 dias por semana, sem fadiga.
Ainda assim, a adoção generalizada de agentes de IA também introduz desafios complexos que precisam ser cuidadosamente abordados. Para superar alguns desses desafios, Myson disse que a abordagem da sua empresa "é transformar os agentes em colaboradores transparentes, não em oráculos sem controle." Ele acrescentou:
“No Swarm, os agentes decompõem a informação em pequenas alegações testáveis, eles verificam-se mutuamente e, onde é necessária nuance, os humanos intervêm. Cada passo é registado e ancorado na cadeia, de modo que o seu raciocínio é reprodutível. Em resumo: sem caixas pretas, apenas trilhas verificáveis.”
Entretanto, Myson acredita que, nos próximos cinco anos, a verificação de factos evoluirá de um processo manual para uma funcionalidade integrada da vida digital, e os agentes de IA serão avaliados pela sua transparência, não apenas pela velocidade. A visão final é tornar a verdade uma camada fundamental da internet.
“Da mesma forma que o SSL se tornou o padrão para o tráfego web, um protocolo de verdade se tornará o padrão para a informação. E é assim que evitamos que a IA afogue o mundo em ruído,” concluiu Myson.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Especialista em IA: Protocolos de Verdade Podem Tornar-se o SSL da Era da Informação
Conteúdo gerado por IA, incluindo deepfakes e áudio falso, borraram as linhas entre a realidade e a fabricação, levando a uma ampla confusão e manipulação. Especialistas como Yannick Myson advogam a incorporação de verificação na fase de criação de conteúdo e a implementação de sistemas de verificação descentralizados para garantir a autenticidade.
Desinformação e Seus Perigos
O ano de 2024 serviu como um aviso contundente sobre os perigos que a inteligência artificial (AI) pode representar se não forem implementadas salvaguardas. Em todo o mundo, desde o enorme exercício democrático da Índia até o clima político tenso de Taiwan, campanhas de desinformação geradas por IA deixaram sua marca.
Em Taiwan, âncoras de notícias deepfake borraram as linhas entre a realidade e a fabricação, enquanto nos Estados Unidos, um áudio falso do Presidente Biden supostamente desencorajando os democratas de New Hampshire a votar sublinhou a facilidade com que a IA pode ser armada para manipulação política. O volume e a sofisticação deste média sintética deixaram muitos a sentir-se à deriva em um mar de incerteza, lutando para discernir o fato da ficção.
No entanto, alguns especialistas, como Yannick Myson, fundador e CEO da Swarm Network, argumentam que o problema é mais profundo do que a manipulação eleitoral. Ele cita a psicose induzida por IA, um fenômeno perturbador de pessoas desenvolvendo delírios grandiosos, que alguns estudos ligam a interações prolongadas com chatbots de IA. O custo dessa psicose induzida por IA tem sido imenso; alguns perderam empregos enquanto outros acabaram em tratamento psiquiátrico.
“Assim como os deepfakes exploram os nossos atalhos de processamento visual, a psicose da IA explora as nossas vulnerabilidades psicológicas, com os chatbots a servirem como câmaras de eco perfeitas que validam e amplificam o pensamento delirante,” disse Myson.
Soluções Centralizadas vs. Descentralizadas
Myson acredita que as atuais medidas reativas, como iniciativas de verificação de fatos em mosaico, são simplesmente insuficientes para combater este problema em escalada. "O que a indústria está percebendo é que a verificação de fatos em mosaico não consegue acompanhar a velocidade da mídia sintética ou a manipulação psicológica dos sistemas de IA," afirma ele.
A sua solução, incorporada na Swarm Network, é proativa: integrar a verificação em grande escala. Isso envolve estabelecer a proveniência no próprio momento da criação de conteúdo, garantindo que a origem da informação digital possa ser rastreada e autenticada. Além disso, Myson defende sistemas de verificação descentralizados, onde a informação é verificada e validada à medida que se espalha pela esfera digital.
Esta visão de uma robusta "infraestrutura de verdade" ressoa com uma preocupação crescente dentro da indústria de IA. À medida que a tecnologia continua a avançar a um ritmo acelerado, as implicações éticas e sociais do seu uso indevido tornam-se cada vez mais evidentes. A erosão da confiança na informação digital, alimentada por falsashoods geradas por IA sofisticada, representa uma ameaça significativa aos processos democráticos, à coesão social e até mesmo ao bem-estar mental individual.
Para combater isso, alguns advogados defenderam uma resposta regulatória, citando instâncias passadas em que isso se provou uma ferramenta vital na proteção dos usuários contra os riscos potenciais associados a tecnologias emergentes. No entanto, críticos alertam que isso poderia ter o efeito não intencional de sufocar a inovação, uma alegação com a qual Myson parece concordar.
“A regulamentação pode ajudar, mas apenas se evitar a armadilha de centralizar a verdade. Vimos governos armarem-se com as ‘leis de desinformação’ para silenciar o debate,” afirmou o CEO da Swarm Network.
Para apoiar esta afirmação, Myson apontou como os burocratas da UE estão supostamente usando a (EU) Lei dos Serviços Digitais da União Europeia (DSA), que exige a remoção de conteúdo "nocivo" amplamente definido, como "uma ferramenta para restringir o discurso aberto em todo o mundo." Myson argumenta que a Lei de IA da UE também cria problemas semelhantes.
Em vez de promulgar peças como o DSA ou a Lei da IA, Myson em vez disso advoga por exigir transparência, rotulagem clara de mídia sintética e padrões de proveniência abertos como o C2PA. "As regras devem impor prova, não opinião", argumentou.
O Futuro da Verificação
De acordo com o CEO, grandes plataformas de redes sociais como a Meta e o TikTok reconhecem isso e desde então mudaram para abordagens mais descentralizadas de verificação de factos.
“Esta mudança representa um reconhecimento fundamental de que a verificação de factos centralizada cria estrangulamentos e pontos únicos de falha. O futuro da verificação de conteúdo não é sobre dar aos governos ou às corporações o poder de decidir o que é verdade,” afirmou o CEO.
Myson acredita que esta mudança torna soluções como a oferecida pela Swarm Network cruciais. Em vez de depender de um punhado de verificadores de fatos centralizados, a Swarm utiliza "agentes de IA trabalhando ao lado de revisores humanos para criar um registo audível e on-chain de reivindicações verificadas."
De facto, os agentes de IA estão a passar rapidamente de conceitos teóricos para aplicações práticas, mudando fundamentalmente a forma como vários setores operam. O principal benefício destes agentes é a sua capacidade de automatizar e otimizar. Eles podem processar quantidades vastas de dados em um curto período, identificar padrões que os humanos podem perder e operar 24 horas por dia, 7 dias por semana, sem fadiga.
Ainda assim, a adoção generalizada de agentes de IA também introduz desafios complexos que precisam ser cuidadosamente abordados. Para superar alguns desses desafios, Myson disse que a abordagem da sua empresa "é transformar os agentes em colaboradores transparentes, não em oráculos sem controle." Ele acrescentou:
“No Swarm, os agentes decompõem a informação em pequenas alegações testáveis, eles verificam-se mutuamente e, onde é necessária nuance, os humanos intervêm. Cada passo é registado e ancorado na cadeia, de modo que o seu raciocínio é reprodutível. Em resumo: sem caixas pretas, apenas trilhas verificáveis.”
Entretanto, Myson acredita que, nos próximos cinco anos, a verificação de factos evoluirá de um processo manual para uma funcionalidade integrada da vida digital, e os agentes de IA serão avaliados pela sua transparência, não apenas pela velocidade. A visão final é tornar a verdade uma camada fundamental da internet.
“Da mesma forma que o SSL se tornou o padrão para o tráfego web, um protocolo de verdade se tornará o padrão para a informação. E é assim que evitamos que a IA afogue o mundo em ruído,” concluiu Myson.