Lors d une présentation Microsoft, un manifestant dénonce: Vous vendez des armes d IA à l armée israélienne . AP confirme: l IA de Microsoft cible des frappes militaires. Réponse du présentateur? Merci... parlons d emails. L éthique de l IA en question. #TechEthique

Article en référence: https://v.redd.it/1m5bw188vuse1

Récapitulatif factuel

Lors d’une récente présentation de Microsoft Copilot, un événement significatif s’est produit lorsqu’un manifestant a interrompu la conférence en accusant publiquement Microsoft de vendre des technologies d’intelligence artificielle à l’armée israélienne. Le manifestant a déclaré : “Honte à vous. Vous prétendez vous soucier d’utiliser l’IA pour le bien, mais Microsoft vend des armes d’IA à l’armée israélienne […] Tout Microsoft a du sang sur les mains.”

Cette accusation n’est pas sans fondement. Une enquête de l’Associated Press a confirmé que l’armée israélienne utilise effectivement des technologies d’IA, notamment celles de Microsoft et OpenAI, pour analyser d’énormes quantités de données de renseignement, de communications interceptées et de surveillance. Cette utilisation aurait considérablement augmenté après l’attaque du Hamas du 7 octobre 2023. L’enquête révèle également comment ces systèmes d’IA sont utilisés pour sélectionner des cibles et les risques d’erreurs liés à des données défectueuses ou des algorithmes imparfaits.

Heidy Khlaaf, scientifique en chef de l’IA à l’AI Now Institute et ancienne ingénieure de sécurité chez OpenAI, a souligné l’importance de cette révélation : “C’est la première confirmation que nous avons que des modèles d’IA commerciaux sont directement utilisés dans des conflits armés. Les implications sont énormes pour le rôle de la technologie dans la facilitation de ce type de guerre contraire à l’éthique et illégale.”

Face à cette interruption, le présentateur de Microsoft a simplement répondu : “Merci… nous vous entendons clairement”, avant de poursuivre sa présentation comme si de rien n’était, enchaînant sur les améliorations apportées à l’expérience de messagerie électronique.

Point de vue neutre

Cette confrontation entre l’activisme éthique et les intérêts commerciaux des géants technologiques soulève des questions fondamentales sur la responsabilité des entreprises dans l’utilisation de leurs technologies. Microsoft, comme toute entreprise, se trouve à la croisée de multiples pressions : maximiser les profits pour ses actionnaires, respecter ses engagements publics en matière d’éthique, et naviguer dans un environnement géopolitique complexe.

La réaction du présentateur - reconnaître poliment la protestation avant de poursuivre - illustre parfaitement le dilemme auquel font face ces entreprises. D’un côté, elles ne peuvent ignorer complètement les préoccupations éthiques sans risquer leur réputation. De l’autre, elles sont réticentes à engager un véritable dialogue sur ces questions pendant leurs événements promotionnels.

La question n’est pas simplement de savoir si Microsoft devrait vendre ou non sa technologie à l’armée israélienne, mais plutôt de déterminer où tracer la ligne entre les utilisations acceptables et inacceptables de l’IA. Les entreprises technologiques ont-elles la responsabilité de contrôler l’utilisation de leurs produits une fois vendus? Peuvent-elles réellement le faire? Et si oui, selon quels critères?

Cette situation met en lumière un paradoxe de notre ère technologique : nous développons des outils d’une puissance sans précédent, mais nos cadres éthiques et réglementaires peinent à suivre le rythme. Entre les promesses d’utiliser l’IA “pour le bien” et la réalité de son déploiement dans des contextes militaires, il existe un fossé que ni les entreprises ni les gouvernements n’ont encore trouvé comment combler efficacement.

Exemple

Imaginez que vous avez inventé un couteau de cuisine révolutionnaire. Ce couteau est si précis qu’il peut couper des légumes à la perfection, rendant la préparation des repas plus efficace et agréable pour des millions de personnes. Vous commercialisez votre invention en vantant ses mérites culinaires et son potentiel pour améliorer le quotidien.

Un jour, lors du lancement de votre nouvelle gamme de couteaux, quelqu’un se lève dans la salle et crie : “Votre couteau a été utilisé comme arme dans plusieurs agressions! Vous avez du sang sur les mains!” Vous répondez poliment : “Merci pour votre intervention”, puis vous continuez votre présentation sur les nouvelles fonctionnalités de découpe de tomates.

Cette analogie, bien que simpliste, illustre le dilemme de la double utilisation des technologies. La différence cruciale avec l’IA, c’est que contrairement à un couteau qui est vendu une fois pour toutes, les services d’IA sont souvent fournis en continu via le cloud. Microsoft pourrait théoriquement “débrancher” l’accès à ses services ou modifier ses conditions d’utilisation.

C’est comme si vous pouviez, à distance, transformer tous vos couteaux en cuillères si vous appreniez qu’ils sont utilisés à mauvais escient. Cette capacité unique crée une responsabilité tout aussi unique - une responsabilité que notre manifestant estime que Microsoft n’assume pas correctement.

Et pendant ce temps-là, notre présentateur Microsoft continue de parler des nouvelles fonctionnalités email, comme si quelqu’un s’intéressait encore à la façon dont Outlook va trier automatiquement vos promotions après avoir entendu parler d’IA militarisée!

Point de vue optimiste

Cette confrontation, aussi inconfortable soit-elle, représente en réalité une étape nécessaire dans l’évolution de notre relation avec l’IA. Le fait même que des manifestants se sentent concernés et prennent la parole lors d’événements corporatifs montre que la société civile est vigilante et engagée dans le débat sur l’éthique de l’IA.

Microsoft et les autres géants technologiques sont désormais conscients que leurs actions sont scrutées à la loupe. Cette pression publique les incitera inévitablement à développer des politiques plus transparentes et des garde-fous plus robustes concernant l’utilisation de leurs technologies. Nous pourrions bientôt voir émerger des certifications d’utilisation éthique de l’IA, des audits indépendants, et des clauses contractuelles plus strictes.

Par ailleurs, cette controverse pourrait catalyser l’innovation dans le domaine de l’IA éthique. Des équipes de recherche travaillent déjà sur des moyens de rendre l’IA plus explicable, plus équitable et plus alignée avec les valeurs humaines. Les entreprises qui prendront les devants sur ces questions gagneront non seulement en réputation, mais aussi en avantage compétitif à long terme.

De plus, cette prise de conscience collective pourrait accélérer l’élaboration de cadres réglementaires internationaux pour l’IA, similaires aux conventions sur les armes biologiques ou chimiques. L’humanité a déjà démontré sa capacité à établir des limites collectives sur l’utilisation de technologies potentiellement dangereuses.

Finalement, cette tension créative entre innovation technologique et considérations éthiques pourrait nous conduire vers une IA véritablement au service de l’humanité - une IA qui amplifie nos capacités tout en respectant nos valeurs les plus fondamentales.

Point de vue pessimiste

L’incident lors de la présentation Microsoft Copilot n’est qu’un symptôme d’un problème bien plus profond et inquiétant. La réponse désinvolte du présentateur - “Nous vous entendons clairement” suivie d’un changement immédiat de sujet - révèle la véritable attitude des géants technologiques face aux préoccupations éthiques : une reconnaissance de façade sans intention réelle de changement.

Cette dynamique est d’autant plus alarmante que nous assistons à une militarisation accélérée de l’IA sans cadre éthique ou juridique adéquat. Les entreprises technologiques se cachent derrière l’argument de la “neutralité technologique”, prétendant que leurs outils sont comme n’importe quel produit qui peut être utilisé pour le bien ou pour le mal. Mais cette position est intellectuellement malhonnête quand on considère la nature des services cloud modernes, où les fournisseurs conservent un contrôle continu sur l’accès à leurs technologies.

Plus inquiétant encore, nous observons une concentration sans précédent du pouvoir technologique entre les mains de quelques entreprises qui ne sont redevables qu’à leurs actionnaires. Ces entreprises développent des technologies qui peuvent influencer des élections, surveiller des populations entières, et maintenant, sélectionner des cibles militaires - le tout sans véritable supervision démocratique.

La réalité est que les considérations commerciales l’emporteront toujours sur les préoccupations éthiques tant que le modèle économique actuel prévaudra. Les entreprises continueront à vendre leurs technologies aux plus offrants, qu’il s’agisse de régimes autoritaires ou d’armées engagées dans des conflits controversés.

Pendant ce temps, le fossé entre les promesses publiques d’une “IA pour le bien” et les pratiques réelles ne fait que s’élargir, érodant la confiance du public et alimentant un cynisme justifié envers les géants technologiques. Sans une mobilisation citoyenne massive et une régulation contraignante, nous risquons de voir l’IA devenir un outil d’oppression plutôt qu’un vecteur d’émancipation humaine.

Redirection en cours...

Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈