El contenido generado por IA, incluidos los deepfakes y el audio falso, difuminó las líneas entre la realidad y la fabricación, llevando a una confusión y manipulación generalizadas. Expertos como Yannick Myson defienden la verificación en la etapa de creación de contenido e implementan sistemas de verificación descentralizados para garantizar la autenticidad.
Desinformación y sus peligros
El año 2024 sirvió como una advertencia clara sobre los peligros que la inteligencia artificial (AI) puede representar si no se implementan salvaguardias. En todo el mundo, desde el enorme ejercicio democrático de la India hasta el tenso clima político de Taiwán, las campañas de desinformación generadas por IA dejaron su huella.
En Taiwán, los presentadores de noticias deepfake difuminaron las líneas entre la realidad y la fabricación, mientras que en los Estados Unidos, un audio falso del presidente Biden supuestamente desalentando a los demócratas de New Hampshire a votar subrayó la facilidad con la que la IA puede ser utilizada como arma para la manipulación política. El volumen y la sofisticación de este medio sintético han dejado a muchos sintiéndose a la deriva en un mar de incertidumbre, luchando por discernir la realidad de la ficción.
Sin embargo, algunos expertos, como Yannick Myson, fundador y CEO de Swarm Network, argumentan que el problema es más profundo que la manipulación electoral. Él cita la psicosis inducida por la IA, un fenómeno perturbador de personas que desarrollan delirios grandiosos, que algunos estudios relacionan con interacciones prolongadas con chatbots de IA. El costo de esta psicosis inducida por la IA ha sido inmenso; algunos han perdido empleos mientras que otros han terminado en tratamiento psiquiátrico.
“Así como los deepfakes explotan nuestros atajos de procesamiento visual, la psicosis de la IA explota nuestras vulnerabilidades psicológicas, con chatbots que sirven como cámaras de eco perfectas que validan y amplifican el pensamiento delirante,” dijo Myson.
Soluciones Centralizadas vs. Descentralizadas
Myson cree que las medidas reactivas actuales, como las iniciativas de verificación de hechos fragmentarias, son simplemente insuficientes para combatir este problema en escalada. "Lo que la industria está comenzando a entender es que la verificación de hechos fragmentaria no puede mantenerse al día con la velocidad de los medios sintéticos o la manipulación psicológica de los sistemas de IA", afirma.
Su solución, encarnada en Swarm Network, es proactiva: incorporar la verificación a gran escala. Esto implica establecer la procedencia en el mismo punto de creación del contenido, asegurando que el origen de la información digital pueda ser rastreado y autenticado. Además, Myson es defensor de sistemas de verificación descentralizados, donde la información se verifica y valida a medida que se difunde en la esfera digital.
Esta visión de una robusta "infraestructura de verdad" resuena con una creciente preocupación dentro de la industria de la IA. A medida que la tecnología continúa avanzando a un ritmo rápido, las implicaciones éticas y sociales de su mal uso son cada vez más evidentes. La erosión de la confianza en la información digital, alimentada por falsedades sofisticadas generadas por IA, representa una amenaza significativa para los procesos democráticos, la cohesión social e incluso el bienestar mental individual.
Para combatir esto, algunos han abogado por una respuesta regulatoria, citando instancias pasadas cuando esto demostró ser una herramienta vital para proteger a los usuarios de riesgos potenciales asociados con tecnologías emergentes. Sin embargo, los críticos advierten que esto podría tener el efecto no intencionado de sofocar la innovación, una afirmación con la que Myson parece estar de acuerdo.
“La regulación puede ayudar, pero solo si evita la trampa de centralizar la verdad. Hemos visto a los gobiernos utilizar las ‘leyes de desinformación’ para silenciar el debate”, declaró el CEO de Swarm Network.
Para respaldar esta afirmación, Myson señaló cómo los burócratas de la UE están utilizando supuestamente la Ley de Servicios Digitales (DSA) de la Unión Europea, que exige la eliminación de contenido "dañino" definido de manera amplia, como "una herramienta para restringir el discurso abierto en todo el mundo". Myson argumenta que la Ley de IA de la UE también crea problemas similares.
En lugar de promulgar leyes como la DSA o la Ley de IA, Myson en cambio aboga por la obligatoriedad de la transparencia, el etiquetado claro de los medios sintéticos y estándares de procedencia abiertos como C2PA. "Las reglas deben imponer prueba, no opinión", argumentó.
El Futuro de la Verificación
Según el CEO, las principales plataformas de redes sociales como Meta y TikTok reconocen esto y desde entonces han cambiado hacia enfoques más descentralizados para la verificación de hechos.
“Este cambio representa un reconocimiento fundamental de que la verificación de hechos centralizada crea cuellos de botella y puntos únicos de falla. El futuro de la verificación de contenido no se trata de dar a los gobiernos o corporaciones el poder de decidir qué es verdadero”, declaró el CEO.
Myson cree que este cambio hace que soluciones como la ofrecida por Swarm Network sean cruciales. En lugar de depender de un puñado de verificadores centralizados, Swarm utiliza "agentes de IA que trabajan junto a revisores humanos para crear un registro auditable en cadena de las reclamaciones verificadas."
De hecho, los agentes de IA están pasando rápidamente de conceptos teóricos a aplicaciones prácticas, cambiando fundamentalmente cómo operan diversos sectores. El principal beneficio de estos agentes es su capacidad para automatizar y optimizar. Pueden procesar enormes cantidades de datos en un corto período, identificar patrones que los humanos podrían pasar por alto y operar 24/7 sin fatiga.
Aún así, la adopción generalizada de agentes de IA también introduce desafíos complejos que deben abordarse cuidadosamente. Para superar algunos de estos desafíos, Myson dijo que el enfoque de su empresa "es convertir a los agentes en colaboradores transparentes, no en oráculos sin control." Añadió:
“En Swarm, los agentes descomponen la información en pequeñas afirmaciones susceptibles de ser probadas, se verifican entre sí, y donde se necesita matiz, intervienen los humanos. Cada paso se registra y se ancla en la cadena, por lo que su razonamiento es reproducible. En resumen: no hay cajas negras, solo senderos verificables.”
Mientras tanto, Myson cree que, en los próximos cinco años, la verificación de hechos evolucionará de un proceso manual a una característica integrada de la vida digital, y los agentes de IA serán evaluados por su transparencia, no solo por su velocidad. La visión final es hacer de la verdad una capa fundamental de internet.
“De la misma manera que SSL se convirtió en el estándar para el tráfico web, un protocolo de verdad se convertirá en el estándar para la información. Y así es como mantenemos a la IA de ahogar al mundo en ruido,” concluyó Myson.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Experto en IA: Los Protocolos de Verdad Podrían Convertirse en el SSL de la Era de la Información
El contenido generado por IA, incluidos los deepfakes y el audio falso, difuminó las líneas entre la realidad y la fabricación, llevando a una confusión y manipulación generalizadas. Expertos como Yannick Myson defienden la verificación en la etapa de creación de contenido e implementan sistemas de verificación descentralizados para garantizar la autenticidad.
Desinformación y sus peligros
El año 2024 sirvió como una advertencia clara sobre los peligros que la inteligencia artificial (AI) puede representar si no se implementan salvaguardias. En todo el mundo, desde el enorme ejercicio democrático de la India hasta el tenso clima político de Taiwán, las campañas de desinformación generadas por IA dejaron su huella.
En Taiwán, los presentadores de noticias deepfake difuminaron las líneas entre la realidad y la fabricación, mientras que en los Estados Unidos, un audio falso del presidente Biden supuestamente desalentando a los demócratas de New Hampshire a votar subrayó la facilidad con la que la IA puede ser utilizada como arma para la manipulación política. El volumen y la sofisticación de este medio sintético han dejado a muchos sintiéndose a la deriva en un mar de incertidumbre, luchando por discernir la realidad de la ficción.
Sin embargo, algunos expertos, como Yannick Myson, fundador y CEO de Swarm Network, argumentan que el problema es más profundo que la manipulación electoral. Él cita la psicosis inducida por la IA, un fenómeno perturbador de personas que desarrollan delirios grandiosos, que algunos estudios relacionan con interacciones prolongadas con chatbots de IA. El costo de esta psicosis inducida por la IA ha sido inmenso; algunos han perdido empleos mientras que otros han terminado en tratamiento psiquiátrico.
“Así como los deepfakes explotan nuestros atajos de procesamiento visual, la psicosis de la IA explota nuestras vulnerabilidades psicológicas, con chatbots que sirven como cámaras de eco perfectas que validan y amplifican el pensamiento delirante,” dijo Myson.
Soluciones Centralizadas vs. Descentralizadas
Myson cree que las medidas reactivas actuales, como las iniciativas de verificación de hechos fragmentarias, son simplemente insuficientes para combatir este problema en escalada. "Lo que la industria está comenzando a entender es que la verificación de hechos fragmentaria no puede mantenerse al día con la velocidad de los medios sintéticos o la manipulación psicológica de los sistemas de IA", afirma.
Su solución, encarnada en Swarm Network, es proactiva: incorporar la verificación a gran escala. Esto implica establecer la procedencia en el mismo punto de creación del contenido, asegurando que el origen de la información digital pueda ser rastreado y autenticado. Además, Myson es defensor de sistemas de verificación descentralizados, donde la información se verifica y valida a medida que se difunde en la esfera digital.
Esta visión de una robusta "infraestructura de verdad" resuena con una creciente preocupación dentro de la industria de la IA. A medida que la tecnología continúa avanzando a un ritmo rápido, las implicaciones éticas y sociales de su mal uso son cada vez más evidentes. La erosión de la confianza en la información digital, alimentada por falsedades sofisticadas generadas por IA, representa una amenaza significativa para los procesos democráticos, la cohesión social e incluso el bienestar mental individual.
Para combatir esto, algunos han abogado por una respuesta regulatoria, citando instancias pasadas cuando esto demostró ser una herramienta vital para proteger a los usuarios de riesgos potenciales asociados con tecnologías emergentes. Sin embargo, los críticos advierten que esto podría tener el efecto no intencionado de sofocar la innovación, una afirmación con la que Myson parece estar de acuerdo.
“La regulación puede ayudar, pero solo si evita la trampa de centralizar la verdad. Hemos visto a los gobiernos utilizar las ‘leyes de desinformación’ para silenciar el debate”, declaró el CEO de Swarm Network.
Para respaldar esta afirmación, Myson señaló cómo los burócratas de la UE están utilizando supuestamente la Ley de Servicios Digitales (DSA) de la Unión Europea, que exige la eliminación de contenido "dañino" definido de manera amplia, como "una herramienta para restringir el discurso abierto en todo el mundo". Myson argumenta que la Ley de IA de la UE también crea problemas similares.
En lugar de promulgar leyes como la DSA o la Ley de IA, Myson en cambio aboga por la obligatoriedad de la transparencia, el etiquetado claro de los medios sintéticos y estándares de procedencia abiertos como C2PA. "Las reglas deben imponer prueba, no opinión", argumentó.
El Futuro de la Verificación
Según el CEO, las principales plataformas de redes sociales como Meta y TikTok reconocen esto y desde entonces han cambiado hacia enfoques más descentralizados para la verificación de hechos.
“Este cambio representa un reconocimiento fundamental de que la verificación de hechos centralizada crea cuellos de botella y puntos únicos de falla. El futuro de la verificación de contenido no se trata de dar a los gobiernos o corporaciones el poder de decidir qué es verdadero”, declaró el CEO.
Myson cree que este cambio hace que soluciones como la ofrecida por Swarm Network sean cruciales. En lugar de depender de un puñado de verificadores centralizados, Swarm utiliza "agentes de IA que trabajan junto a revisores humanos para crear un registro auditable en cadena de las reclamaciones verificadas."
De hecho, los agentes de IA están pasando rápidamente de conceptos teóricos a aplicaciones prácticas, cambiando fundamentalmente cómo operan diversos sectores. El principal beneficio de estos agentes es su capacidad para automatizar y optimizar. Pueden procesar enormes cantidades de datos en un corto período, identificar patrones que los humanos podrían pasar por alto y operar 24/7 sin fatiga.
Aún así, la adopción generalizada de agentes de IA también introduce desafíos complejos que deben abordarse cuidadosamente. Para superar algunos de estos desafíos, Myson dijo que el enfoque de su empresa "es convertir a los agentes en colaboradores transparentes, no en oráculos sin control." Añadió:
“En Swarm, los agentes descomponen la información en pequeñas afirmaciones susceptibles de ser probadas, se verifican entre sí, y donde se necesita matiz, intervienen los humanos. Cada paso se registra y se ancla en la cadena, por lo que su razonamiento es reproducible. En resumen: no hay cajas negras, solo senderos verificables.”
Mientras tanto, Myson cree que, en los próximos cinco años, la verificación de hechos evolucionará de un proceso manual a una característica integrada de la vida digital, y los agentes de IA serán evaluados por su transparencia, no solo por su velocidad. La visión final es hacer de la verdad una capa fundamental de internet.
“De la misma manera que SSL se convirtió en el estándar para el tráfico web, un protocolo de verdad se convertirá en el estándar para la información. Y así es como mantenemos a la IA de ahogar al mundo en ruido,” concluyó Myson.