Google recrute des chercheurs pour Ă©tudier le monde post-AGI Ă  Londres. Ils anticipent dĂ©jĂ  l aprĂšs-intelligence artificielle gĂ©nĂ©rale, explorant la conscience machine et la transition vers l ASI (superintelligence). Le futur se dessine maintenant, et Google veut ĂȘtre prĂȘt. #IA #Futur

Article en référence: https://i.redd.it/buitz232cuue1.png

Récapitulatif factuel

Google a rĂ©cemment publiĂ© une offre d’emploi pour un poste de chercheur en “recherche post-AGI” (Intelligence Artificielle GĂ©nĂ©rale). Cette annonce, partagĂ©e sur Reddit, a suscitĂ© de nombreuses rĂ©actions dans la communautĂ© technologique. Le poste, basĂ© Ă  Londres, recherche un scientifique pour explorer “l’impact profond de ce qui vient aprĂšs l’AGI”.

Pour comprendre l’importance de cette annonce, clarifions quelques termes :

L’offre d’emploi mentionne explicitement plusieurs domaines de recherche, notamment l’économie, le droit, la santĂ©, la “conscience des machines” et la transition de l’AGI vers l’ASI. Le candidat idĂ©al devra dĂ©finir des questions de recherche critiques, collaborer avec des Ă©quipes pluridisciplinaires et mener des expĂ©riences pour faire avancer la mission de Google dans ce domaine.

Cette dĂ©marche de Google suggĂšre que l’entreprise anticipe activement un futur oĂč l’AGI pourrait devenir rĂ©alitĂ©, et qu’elle souhaite se prĂ©parer aux implications sociĂ©tales, Ă©conomiques et technologiques qui en dĂ©couleraient.

Point de vue neutre

Cette offre d’emploi de Google reprĂ©sente moins une confirmation de l’imminence de l’AGI qu’une stratĂ©gie d’anticipation prudente. Les grandes entreprises technologiques ont toujours investi dans la recherche prospective, mĂȘme pour des technologies qui pourraient n’émerger que dans plusieurs annĂ©es, voire dĂ©cennies.

L’état actuel de l’IA, malgrĂ© ses progrĂšs impressionnants avec les grands modĂšles de langage comme GPT-4 ou Gemini, reste fondamentalement diffĂ©rent d’une vĂ©ritable intelligence gĂ©nĂ©rale. Ces systĂšmes, bien que puissants, fonctionnent principalement par prĂ©diction statistique et manquent de nombreuses caractĂ©ristiques fondamentales de l’intelligence humaine comme la conscience de soi, la comprĂ©hension causale profonde ou l’adaptabilitĂ© gĂ©nĂ©rale.

Cette initiative de Google peut ĂȘtre interprĂ©tĂ©e comme une reconnaissance que, si l’AGI reste hypothĂ©tique Ă  court terme, ses implications potentielles sont suffisamment importantes pour justifier une rĂ©flexion anticipĂ©e. C’est une approche rationnelle : mieux vaut Ă©tudier les consĂ©quences possibles d’une technologie transformative avant son apparition plutĂŽt qu’aprĂšs.

La crĂ©ation de ce poste reflĂšte Ă©galement la compĂ©tition intense entre les gĂ©ants technologiques dans le domaine de l’IA. Dans un contexte oĂč OpenAI, Anthropic et d’autres startups attirent talents et investissements, Google affirme sa volontĂ© de rester Ă  la pointe non seulement du dĂ©veloppement technologique, mais aussi de la rĂ©flexion sur ses implications futures.

Exemple

Imaginez que vous soyez le responsable d’une petite ville tranquille, et qu’un jour, un scientifique local vous annonce qu’il travaille sur une machine capable de contrĂŽler la mĂ©tĂ©o. Cette machine n’existe pas encore, mais les calculs thĂ©oriques suggĂšrent qu’elle pourrait ĂȘtre possible dans les prochaines annĂ©es.

Que feriez-vous? Vous pourriez hausser les Ă©paules et dire “Appelez-moi quand ça marchera!” Ou bien, en tant que maire prĂ©voyant, vous pourriez crĂ©er un comitĂ© pour rĂ©flĂ©chir aux questions importantes : Comment rĂ©glementer une telle technologie? Qui dĂ©ciderait s’il doit pleuvoir sur les champs ou faire soleil pour le festival municipal? Comment Ă©viter les conflits entre agriculteurs qui veulent de la pluie et propriĂ©taires de terrains de golf qui prĂ©fĂšrent le beau temps?

C’est exactement ce que fait Google avec cette offre d’emploi. Ils ne disent pas “HĂ©, on a créé l’AGI!” mais plutĂŽt “On devrait peut-ĂȘtre commencer Ă  rĂ©flĂ©chir Ă  ce qu’on fera si jamais on y arrive.”

C’est comme si votre conjoint(e) vous disait un matin: “J’ai commandĂ© un livre sur comment Ă©lever des dragons” et que vous rĂ©pondiez paniquĂ©: “Tu as achetĂ© un dragon?!” Non, il/elle se prĂ©pare juste
 au cas oĂč les dragons deviendraient une rĂ©alitĂ©. C’est de la planification prĂ©ventive, pas une confirmation que les dragons existent dĂ©jĂ  dans votre garage!

Point de vue optimiste

Cette initiative de Google reprĂ©sente une avancĂ©e remarquable dans notre approche collective de l’innovation technologique. Pour la premiĂšre fois, nous voyons une entreprise majeure investir sĂ©rieusement dans la prĂ©paration d’un avenir post-AGI, dĂ©montrant une vision Ă  long terme et une responsabilitĂ© exemplaire.

L’AGI pourrait reprĂ©senter la plus grande avancĂ©e technologique de l’histoire humaine, offrant des solutions Ă  des problĂšmes jusqu’alors insolubles: changement climatique, maladies incurables, optimisation des ressources mondiales. En prĂ©parant dĂšs maintenant ce futur, Google contribue Ă  maximiser les bĂ©nĂ©fices potentiels tout en minimisant les risques.

Cette dĂ©marche proactive pourrait Ă©galement accĂ©lĂ©rer le dĂ©veloppement de l’AGI elle-mĂȘme. En anticipant les dĂ©fis Ă©thiques, lĂ©gaux et sociĂ©taux, l’entreprise crĂ©e un cadre qui permettra une adoption plus rapide et plus sĂ»re de cette technologie rĂ©volutionnaire lorsqu’elle Ă©mergera.

Le fait que Google mentionne explicitement des domaines comme l’économie, la santĂ© et l’éducation dans son offre d’emploi montre une vision holistique des impacts de l’AGI. Cela suggĂšre que l’entreprise envisage cette technologie non pas comme une fin en soi, mais comme un outil pour amĂ©liorer fondamentalement la condition humaine dans tous ses aspects.

Cette approche pourrait Ă©galement inspirer d’autres acteurs technologiques Ă  adopter une vision plus responsable et Ă  long terme, crĂ©ant un effet d’entraĂźnement positif dans l’industrie. Nous pourrions assister Ă  l’émergence d’une nouvelle Ăšre de dĂ©veloppement technologique guidĂ©e par une rĂ©flexion Ă©thique approfondie et une considĂ©ration sincĂšre du bien commun.

Point de vue pessimiste

Cette offre d’emploi de Google soulĂšve des inquiĂ©tudes profondes quant Ă  la direction que prend le dĂ©veloppement de l’IA. Qu’une entreprise privĂ©e, motivĂ©e principalement par le profit et la domination du marchĂ©, se positionne comme architecte d’un futur post-AGI devrait nous alarmer collectivement.

L’histoire nous a montrĂ© que les avancĂ©es technologiques majeures, lorsqu’elles sont contrĂŽlĂ©es par des intĂ©rĂȘts privĂ©s, tendent Ă  exacerber les inĂ©galitĂ©s plutĂŽt qu’à les rĂ©duire. Une AGI dĂ©veloppĂ©e et contrĂŽlĂ©e par Google pourrait concentrer un pouvoir sans prĂ©cĂ©dent entre les mains d’une seule entitĂ© commerciale, crĂ©ant des dĂ©sĂ©quilibres Ă©conomiques et sociaux insurmontables.

Cette initiative rĂ©vĂšle Ă©galement une confiance excessive dans notre capacitĂ© Ă  contrĂŽler des technologies potentiellement existentielles. Les mentions de “conscience des machines” et de transition vers l’ASI suggĂšrent que Google envisage sĂ©rieusement des scĂ©narios oĂč l’intelligence artificielle pourrait dĂ©passer l’intelligence humaine, avec tous les risques que cela comporte.

Le fait que cette recherche soit menĂ©e en interne, sans supervision dĂ©mocratique ou rĂ©glementation internationale adĂ©quate, est particuliĂšrement prĂ©occupant. Des dĂ©cisions qui pourraient affecter l’avenir de l’humanitĂ© tout entiĂšre sont prises dans les salles de conseil d’administration d’entreprises privĂ©es, sans transparence ni responsabilitĂ© publique.

Cette annonce pourrait Ă©galement intensifier la course aux armements de l’IA entre les grandes puissances technologiques, chacune cherchant Ă  dĂ©velopper l’AGI avant ses concurrents, potentiellement au dĂ©triment de la sĂ©curitĂ© et de considĂ©rations Ă©thiques fondamentales. Dans cette course effrĂ©nĂ©e, les prĂ©cautions nĂ©cessaires pourraient ĂȘtre nĂ©gligĂ©es, augmentant les risques d’accidents ou de consĂ©quences imprĂ©vues dĂ©sastreuses.

Redirection en cours...

Si vous n'ĂȘtes pas redirigĂ© automatiquement, 👉 cliquez ici 👈