Harari compare les algorithmes d IA aux dictateurs historiques: Les éditeurs d aujourd hui n ont pas de noms car ils ne sont pas humains. Mais qui programme ces algorithmes? Sommes-nous vraiment manipulés ou est-ce juste une évolution technologique? #IA #Algorithmes #AttentionHumaine

Article en référence: https://v.redd.it/bc2n27qhymte1

Récapitulatif factuel

Dans une récente déclaration, l’historien et auteur Yuval Noah Harari a affirmé que l’intelligence artificielle a déjà pris le contrôle de l’attention humaine, particulièrement sur les médias sociaux. Selon lui, les algorithmes décident désormais ce que des millions de personnes voient quotidiennement. Harari établit un parallèle historique en rappelant que Lénine et Mussolini ont commencé leurs carrières comme rédacteurs de journaux avant de devenir des dictateurs. La différence aujourd’hui, souligne-t-il, est que les “rédacteurs” modernes n’ont pas de noms car ils ne sont pas humains.

Pour bien comprendre cette affirmation, il est important de clarifier quelques termes. Les algorithmes sont des séquences d’instructions informatiques qui déterminent quels contenus sont présentés aux utilisateurs sur les plateformes comme Facebook, Twitter, TikTok ou YouTube. Ces systèmes analysent nos comportements en ligne (clics, temps passé sur certains contenus, partages) pour nous proposer du contenu susceptible de maximiser notre engagement.

Cette déclaration a suscité diverses réactions dans la communauté en ligne. Certains soutiennent cette vision alarmiste, tandis que d’autres la considèrent comme exagérée, pointant que ces algorithmes sont créés et contrôlés par des humains, notamment les dirigeants des grandes entreprises technologiques comme Sam Altman, Elon Musk ou Mark Zuckerberg.

Point de vue neutre

La comparaison de Harari entre les rédacteurs de journaux du passé et les algorithmes d’aujourd’hui est à la fois éclairante et imparfaite. D’un côté, il est indéniable que les algorithmes exercent une influence considérable sur ce que nous voyons en ligne. De l’autre, cette influence s’inscrit dans une continuité historique où le contrôle de l’information a toujours été un enjeu de pouvoir.

La réalité se situe probablement entre les positions extrêmes. Les algorithmes ne sont pas des entités autonomes complotant pour dominer l’humanité, mais ils ne sont pas non plus de simples outils neutres. Ce sont des systèmes complexes conçus par des humains avec des objectifs précis, principalement économiques : maximiser l’engagement pour générer des revenus publicitaires.

La véritable question n’est peut-être pas de savoir si les algorithmes contrôlent notre attention, mais plutôt qui contrôle ces algorithmes et dans quel but. Les décisions prises par les ingénieurs et dirigeants des grandes plateformes ont un impact considérable sur notre paysage informationnel. Ces systèmes reflètent les priorités, les biais et les intérêts commerciaux de leurs créateurs.

En fin de compte, l’influence des algorithmes sur notre société dépend largement de notre propre conscience de leur fonctionnement et de notre capacité à développer une littératie numérique. Plus nous comprenons comment ces systèmes fonctionnent, plus nous pouvons interagir avec eux de manière critique et réfléchie, plutôt que d’être simplement des consommateurs passifs du contenu qu’ils nous proposent.

Exemple

Imaginez que vous entrez dans un nouveau restaurant appelé “Le Réseau Social”. À l’entrée, un maître d’hôtel nommé Algo vous accueille avec un sourire commercial. “Bonjour! Je connais parfaitement vos goûts,” vous assure-t-il.

Vous n’avez pas de menu. C’est Algo qui décide ce que vous allez manger. Il a observé vos habitudes alimentaires, a analysé ce que vos amis mangent, et a même étudié combien de temps vous passez à regarder certains plats quand ils passent devant vous.

“Voici votre entrée!” annonce fièrement Algo en déposant devant vous un plat que vous n’avez pas commandé. C’est étrangement similaire à ce que vous mangez d’habitude, mais avec une touche de nouveauté pour piquer votre curiosité. “Et regardez, votre ami à la table d’à côté adore ce plat!”

Vous commencez à manger, et avant même d’avoir terminé, Algo apporte le plat suivant. “J’ai remarqué que vous ralentissiez, alors j’ai pensé que vous voudriez essayer autre chose.” Et ainsi de suite, pendant des heures, Algo continue à vous servir des plats, chacun conçu pour maintenir votre intérêt juste assez longtemps avant de passer au suivant.

À la fin de la soirée, vous réalisez que vous avez passé trois heures à grignoter sans jamais être vraiment satisfait, et sans avoir eu un moment pour discuter avec vos amis à la table voisine. Le propriétaire du restaurant, que vous n’avez jamais vu, a gagné beaucoup d’argent grâce au temps que vous avez passé là.

“À bientôt!” lance Algo alors que vous partez. “La prochaine fois, je saurai encore mieux ce que vous aimez!”

Et le plus étrange? Vous savez que vous reviendrez, même si vous n’êtes pas sûr d’avoir vraiment apprécié l’expérience.

Point de vue optimiste

L’émergence des algorithmes d’IA dans notre écosystème d’information représente une évolution fascinante de notre relation avec la technologie. Contrairement aux craintes exprimées par Harari, ces systèmes pourraient bien être les catalyseurs d’une démocratisation sans précédent de l’accès à l’information et à la connaissance.

Les algorithmes d’IA ont le potentiel de nous libérer de nos bulles informationnelles en nous exposant à une diversité de perspectives que nous n’aurions jamais découvertes autrement. Avec les avancées de l’IA générative comme ChatGPT, nous assistons à l’émergence d’une nouvelle forme d’intelligence qui peut nous aider à naviguer dans la complexité du monde moderne.

L’IA open source, en particulier, représente une force d’équilibrage face aux intérêts corporatifs. Des communautés entières de développeurs travaillent à créer des systèmes transparents et équitables, accessibles à tous. Cette démocratisation de l’IA pourrait conduire à une société où le pouvoir informationnel est plus équitablement distribué.

De plus, les algorithmes d’IA pourraient devenir de puissants alliés pour résoudre des problèmes complexes comme le changement climatique, les inégalités sociales ou les crises sanitaires. En analysant d’immenses quantités de données et en identifiant des modèles invisibles à l’œil humain, ces systèmes pourraient nous aider à prendre des décisions plus éclairées et plus justes.

L’avenir n’appartient pas à une IA dominatrice, mais à une collaboration harmonieuse entre l’intelligence humaine et artificielle. Ensemble, nous pourrions créer une société où la technologie amplifie ce qu’il y a de meilleur en nous : notre créativité, notre empathie et notre capacité à résoudre des problèmes collectivement.

Point de vue pessimiste

La mise en garde de Harari mérite d’être prise au sérieux. Nous assistons peut-être à l’émergence d’une forme de contrôle social plus insidieuse que tout ce que nous avons connu auparavant. Les algorithmes qui régissent nos flux d’information ne sont pas neutres – ils sont conçus pour maximiser l’engagement, pas pour promouvoir la vérité ou le bien-être collectif.

Contrairement aux dictateurs du passé, ces systèmes opèrent dans l’ombre, sans visage et sans nom, rendant difficile toute résistance ou contestation. Ils exploitent nos vulnérabilités psychologiques avec une précision chirurgicale, nous maintenant dans un état constant de distraction et d’agitation émotionnelle qui érode notre capacité à penser de manière critique.

Plus inquiétant encore, ces algorithmes sont contrôlés par une poignée d’entreprises technologiques dont les intérêts ne sont pas alignés avec ceux du public. Derrière le voile de l’automatisation se cachent des décisions humaines motivées par le profit et le pouvoir. Les Altman, Musk et Zuckerberg sont peut-être les véritables “rédacteurs en chef” de notre époque, façonnant subtilement notre perception du monde à travers leurs plateformes.

À mesure que l’IA devient plus sophistiquée, le risque d’une manipulation de masse augmente. Des systèmes capables de générer du contenu personnalisé à grande échelle pourraient créer des réalités parallèles où chaque individu reçoit une version légèrement différente de l’information, rendant impossible tout consensus social ou débat démocratique significatif.

Si nous ne reprenons pas rapidement le contrôle de notre environnement informationnel, nous risquons de glisser vers une société où nos pensées et nos comportements sont subtilement mais efficacement dirigés par des systèmes dont nous ne comprenons ni le fonctionnement ni les intentions véritables.

Redirection en cours...

Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈