Le contenu généré par l'IA, y compris les deepfakes et les faux audios, a brouillé les frontières entre la réalité et la fabrication, entraînant une confusion et une manipulation généralisées. Des experts comme Yannick Myson défendent l'intégration de la vérification au stade de la création de contenu et la mise en œuvre de systèmes de vérification décentralisés pour garantir l'authenticité.
Désinformation et ses dangers
L'année 2024 a servi d'avertissement clair sur les dangers que l'intelligence artificielle (AI) pourrait poser si aucune mesure de protection n'est mise en place. À travers le monde, de l'immense exercice démocratique de l'Inde au climat politique tendu de Taïwan, les campagnes de désinformation générées par l'IA ont laissé leur empreinte.
À Taïwan, des présentateurs de nouvelles deepfake ont brouillé les frontières entre la réalité et la fabrication, tandis qu'aux États-Unis, un audio falsifié du président Biden décourageant apparemment les démocrates du New Hampshire de voter a souligné la facilité avec laquelle l'IA peut être utilisée comme arme pour la manipulation politique. Le volume et la sophistication de ces médias synthétiques ont laissé beaucoup de gens se sentir perdus dans une mer d'incertitude, luttant pour discerner le fait de la fiction.
Cependant, certains experts, comme Yannick Myson, fondateur et PDG de Swarm Network, soutiennent que le problème est plus profond que la manipulation électorale. Il cite la psychose induite par l'IA, un phénomène troublant de personnes développant des délires grandioses, que certaines études lient à des interactions prolongées avec des chatbots IA. Le coût de cette psychose induite par l'IA a été immense ; certains ont perdu leur emploi tandis que d'autres ont fini en traitement psychiatrique.
« Tout comme les deepfakes exploitent nos raccourcis de traitement visuel, la psychose de l'IA exploite nos vulnérabilités psychologiques, les chatbots servant de parfaites chambres d'écho qui valident et amplifient la pensée délirante », a déclaré Myson.
Solutions centralisées vs. décentralisées
Myson croit que les mesures réactives actuelles, telles que les initiatives de vérification des faits bricolées, sont tout simplement insuffisantes pour lutter contre ce problème croissant. « Ce que l'industrie commence à réaliser, c'est que la vérification des faits bricolée ne peut pas suivre la vitesse des médias synthétiques ou la manipulation psychologique des systèmes d'IA », affirme-t-il.
Sa solution, incarnée dans Swarm Network, est proactive : intégrer la vérification à grande échelle. Cela implique d'établir la provenance au moment même de la création du contenu, garantissant que l'origine de l'information numérique peut être retracée et authentifiée. De plus, Myson défend des systèmes de vérification décentralisés, où l'information est vérifiée et validée au fur et à mesure de sa diffusion dans la sphère numérique.
Cette vision d'une « infrastructure de vérité » robuste résonne avec une préoccupation croissante au sein de l'industrie de l'IA. Alors que la technologie continue d'avancer à un rythme rapide, les implications éthiques et sociales de son utilisation abusive deviennent de plus en plus évidentes. L'érosion de la confiance dans l'information numérique, alimentée par des mensonges sophistiqués générés par l'IA, constitue une menace significative pour les processus démocratiques, la cohésion sociale et même le bien-être mental individuel.
Pour lutter contre cela, certains ont défendu une réponse réglementaire, citant des cas passés où cela s'est avéré être un outil vital pour protéger les utilisateurs des risques potentiels associés aux technologies émergentes. Cependant, les critiques avertissent que cela pourrait avoir l'effet involontaire d'étouffer l'innovation, une affirmation avec laquelle Myson semble être d'accord.
« La réglementation peut aider, mais seulement si elle évite le piège de la centralisation de la vérité. Nous avons vu des gouvernements utiliser les ‘lois sur la désinformation’ pour faire taire le débat », a déclaré le PDG de Swarm Network.
Pour soutenir cette assertion, Myson a souligné comment les bureaucrates de l'UE utilisent apparemment la (DSA), qui impose le retrait de contenus « nuisibles » largement définis, comme « un outil pour restreindre le discours ouvert dans le monde entier. » Myson soutient que l'Acte sur l'IA de l'UE crée également des problèmes similaires.
Au lieu d'adopter des textes comme le DSA ou la loi sur l'IA, Myson préfère défendre l'obligation de transparence, l'étiquetage clair des médias synthétiques et des normes de provenance ouvertes comme le C2PA. "Les règles devraient imposer la preuve, pas l'opinion," a-t-il soutenu.
L'avenir de la vérification
Selon le PDG, les principales plateformes de médias sociaux comme Meta et TikTok reconnaissent cela et ont depuis adopté des approches plus décentralisées pour la vérification des faits.
« Ce changement représente une reconnaissance fondamentale que la vérification des faits centralisée crée des goulets d'étranglement et des points de défaillance uniques. L'avenir de la vérification du contenu ne consiste pas à donner aux gouvernements ou aux entreprises le pouvoir de décider ce qui est vrai », a déclaré le PDG.
Myson croit que ce changement rend des solutions comme celle proposée par Swarm Network cruciales. Plutôt que de s'appuyer sur une poignée de vérificateurs de faits centralisés, Swarm utilise des "agents IA travaillant aux côtés de réviseurs humains pour créer un enregistrement auditable et sur chaîne des affirmations vérifiées."
En effet, les agents d'IA passent rapidement de concepts théoriques à des applications pratiques, changeant fondamentalement la façon dont divers secteurs fonctionnent. Le principal avantage de ces agents est leur capacité à automatiser et à optimiser. Ils peuvent traiter d'énormes quantités de données en peu de temps, identifier des motifs que les humains pourraient manquer et fonctionner 24/7 sans fatigue.
Néanmoins, l'adoption généralisée des agents d'IA introduit également des défis complexes qui doivent être soigneusement abordés. Pour surmonter certains de ces défis, Myson a déclaré que l'approche de son entreprise « est de transformer les agents en collaborateurs transparents, et non en oracles non contrôlés. » Il a ajouté :
« Dans Swarm, les agents décomposent l'information en petites affirmations testables, ils se vérifient mutuellement, et là où des nuances sont nécessaires, les humains interviennent. Chaque étape est enregistrée et ancrée sur la chaîne, de sorte que leur raisonnement est reproductible. En résumé : pas de boîtes noires, juste des pistes vérifiables. »
Pendant ce temps, Myson croit que, dans les cinq prochaines années, la vérification des faits évoluera d'un processus manuel à une fonctionnalité intégrée de la vie numérique, et les agents d'IA seront évalués en fonction de leur transparence, et non seulement de leur rapidité. La vision ultime est de faire de la vérité une couche fondamentale de l'internet.
« De la même manière que SSL est devenu le standard pour le trafic web, un protocole de vérité deviendra le standard pour l'information. Et c'est ainsi que nous empêcherons l'IA d'engloutir le monde dans le bruit », a conclu Myson.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Expert en IA : Les protocoles de vérité pourraient devenir le SSL de l'ère de l'information
Le contenu généré par l'IA, y compris les deepfakes et les faux audios, a brouillé les frontières entre la réalité et la fabrication, entraînant une confusion et une manipulation généralisées. Des experts comme Yannick Myson défendent l'intégration de la vérification au stade de la création de contenu et la mise en œuvre de systèmes de vérification décentralisés pour garantir l'authenticité.
Désinformation et ses dangers
L'année 2024 a servi d'avertissement clair sur les dangers que l'intelligence artificielle (AI) pourrait poser si aucune mesure de protection n'est mise en place. À travers le monde, de l'immense exercice démocratique de l'Inde au climat politique tendu de Taïwan, les campagnes de désinformation générées par l'IA ont laissé leur empreinte.
À Taïwan, des présentateurs de nouvelles deepfake ont brouillé les frontières entre la réalité et la fabrication, tandis qu'aux États-Unis, un audio falsifié du président Biden décourageant apparemment les démocrates du New Hampshire de voter a souligné la facilité avec laquelle l'IA peut être utilisée comme arme pour la manipulation politique. Le volume et la sophistication de ces médias synthétiques ont laissé beaucoup de gens se sentir perdus dans une mer d'incertitude, luttant pour discerner le fait de la fiction.
Cependant, certains experts, comme Yannick Myson, fondateur et PDG de Swarm Network, soutiennent que le problème est plus profond que la manipulation électorale. Il cite la psychose induite par l'IA, un phénomène troublant de personnes développant des délires grandioses, que certaines études lient à des interactions prolongées avec des chatbots IA. Le coût de cette psychose induite par l'IA a été immense ; certains ont perdu leur emploi tandis que d'autres ont fini en traitement psychiatrique.
« Tout comme les deepfakes exploitent nos raccourcis de traitement visuel, la psychose de l'IA exploite nos vulnérabilités psychologiques, les chatbots servant de parfaites chambres d'écho qui valident et amplifient la pensée délirante », a déclaré Myson.
Solutions centralisées vs. décentralisées
Myson croit que les mesures réactives actuelles, telles que les initiatives de vérification des faits bricolées, sont tout simplement insuffisantes pour lutter contre ce problème croissant. « Ce que l'industrie commence à réaliser, c'est que la vérification des faits bricolée ne peut pas suivre la vitesse des médias synthétiques ou la manipulation psychologique des systèmes d'IA », affirme-t-il.
Sa solution, incarnée dans Swarm Network, est proactive : intégrer la vérification à grande échelle. Cela implique d'établir la provenance au moment même de la création du contenu, garantissant que l'origine de l'information numérique peut être retracée et authentifiée. De plus, Myson défend des systèmes de vérification décentralisés, où l'information est vérifiée et validée au fur et à mesure de sa diffusion dans la sphère numérique.
Cette vision d'une « infrastructure de vérité » robuste résonne avec une préoccupation croissante au sein de l'industrie de l'IA. Alors que la technologie continue d'avancer à un rythme rapide, les implications éthiques et sociales de son utilisation abusive deviennent de plus en plus évidentes. L'érosion de la confiance dans l'information numérique, alimentée par des mensonges sophistiqués générés par l'IA, constitue une menace significative pour les processus démocratiques, la cohésion sociale et même le bien-être mental individuel.
Pour lutter contre cela, certains ont défendu une réponse réglementaire, citant des cas passés où cela s'est avéré être un outil vital pour protéger les utilisateurs des risques potentiels associés aux technologies émergentes. Cependant, les critiques avertissent que cela pourrait avoir l'effet involontaire d'étouffer l'innovation, une affirmation avec laquelle Myson semble être d'accord.
« La réglementation peut aider, mais seulement si elle évite le piège de la centralisation de la vérité. Nous avons vu des gouvernements utiliser les ‘lois sur la désinformation’ pour faire taire le débat », a déclaré le PDG de Swarm Network.
Pour soutenir cette assertion, Myson a souligné comment les bureaucrates de l'UE utilisent apparemment la (DSA), qui impose le retrait de contenus « nuisibles » largement définis, comme « un outil pour restreindre le discours ouvert dans le monde entier. » Myson soutient que l'Acte sur l'IA de l'UE crée également des problèmes similaires.
Au lieu d'adopter des textes comme le DSA ou la loi sur l'IA, Myson préfère défendre l'obligation de transparence, l'étiquetage clair des médias synthétiques et des normes de provenance ouvertes comme le C2PA. "Les règles devraient imposer la preuve, pas l'opinion," a-t-il soutenu.
L'avenir de la vérification
Selon le PDG, les principales plateformes de médias sociaux comme Meta et TikTok reconnaissent cela et ont depuis adopté des approches plus décentralisées pour la vérification des faits.
« Ce changement représente une reconnaissance fondamentale que la vérification des faits centralisée crée des goulets d'étranglement et des points de défaillance uniques. L'avenir de la vérification du contenu ne consiste pas à donner aux gouvernements ou aux entreprises le pouvoir de décider ce qui est vrai », a déclaré le PDG.
Myson croit que ce changement rend des solutions comme celle proposée par Swarm Network cruciales. Plutôt que de s'appuyer sur une poignée de vérificateurs de faits centralisés, Swarm utilise des "agents IA travaillant aux côtés de réviseurs humains pour créer un enregistrement auditable et sur chaîne des affirmations vérifiées."
En effet, les agents d'IA passent rapidement de concepts théoriques à des applications pratiques, changeant fondamentalement la façon dont divers secteurs fonctionnent. Le principal avantage de ces agents est leur capacité à automatiser et à optimiser. Ils peuvent traiter d'énormes quantités de données en peu de temps, identifier des motifs que les humains pourraient manquer et fonctionner 24/7 sans fatigue.
Néanmoins, l'adoption généralisée des agents d'IA introduit également des défis complexes qui doivent être soigneusement abordés. Pour surmonter certains de ces défis, Myson a déclaré que l'approche de son entreprise « est de transformer les agents en collaborateurs transparents, et non en oracles non contrôlés. » Il a ajouté :
« Dans Swarm, les agents décomposent l'information en petites affirmations testables, ils se vérifient mutuellement, et là où des nuances sont nécessaires, les humains interviennent. Chaque étape est enregistrée et ancrée sur la chaîne, de sorte que leur raisonnement est reproductible. En résumé : pas de boîtes noires, juste des pistes vérifiables. »
Pendant ce temps, Myson croit que, dans les cinq prochaines années, la vérification des faits évoluera d'un processus manuel à une fonctionnalité intégrée de la vie numérique, et les agents d'IA seront évalués en fonction de leur transparence, et non seulement de leur rapidité. La vision ultime est de faire de la vérité une couche fondamentale de l'internet.
« De la même manière que SSL est devenu le standard pour le trafic web, un protocole de vérité deviendra le standard pour l'information. Et c'est ainsi que nous empêcherons l'IA d'engloutir le monde dans le bruit », a conclu Myson.