Les sombres prévisions de Hinton : Revenu de base universel !

Accueil · Blog IA · Nouvelles · Les sombres prévisions de Hinton : Revenu de base universel !
Geoffrey Hinton donnant un cours.

Le professeur Geoffrey Hinton, connu comme le « parrain de l’intelligence artificielle« , a dĂ©clarĂ© que les gouvernements devront mettre en place un revenu de base universel (RBU) pour faire face aux inĂ©galitĂ©s que l’IA pourrait exacerber. Hinton, qui a Ă©tĂ© consultant pour le gouvernement britannique, a suggĂ©rĂ© que cette mesure est nĂ©cessaire en raison de sa prĂ©occupation pour la perte d’emplois ordinaires Ă  cause de l’automatisation. Selon lui, bien que l’IA augmente la productivitĂ© et la richesse, ces bĂ©nĂ©fices iront aux riches et non aux personnes dont les occupations disparaĂźtront, ce qui serait « trĂšs mauvais pour la sociĂ©té ».

La proposition d’un RBU implique que le gouvernement paie un salaire fixe Ă  tous les citoyens, indĂ©pendamment de leurs revenus. Cependant, cette idĂ©e a Ă©tĂ© critiquĂ©e pour ĂȘtre extrĂȘmement coĂ»teuse et pour dĂ©tourner des fonds des services publics, sans garantir nĂ©cessairement la rĂ©duction de la pauvretĂ©. Un porte-parole gouvernemental a confirmĂ© qu’il n’y a actuellement aucun plan pour introduire un RBU, malgrĂ© les avertissements de Hinton.

Les prĂ©occupations de Hinton sur les risques existentiels de l’IA

En plus de sa position sur le RBU, Hinton a exprimĂ© de profondes prĂ©occupations sur les risques existentiels que l’intelligence artificielle pourrait poser Ă  l’humanitĂ©. AprĂšs avoir quittĂ© Google pour pouvoir parler plus librement des dangers d’une IA sans rĂ©gulation, il a averti que dans un dĂ©lai de cinq Ă  vingt ans, il pourrait ĂȘtre nĂ©cessaire de faire face au problĂšme d’une IA qui essaie de prendre le contrĂŽle.

Hinton a soulignĂ© que la concurrence entre les entreprises technologiques pour dĂ©velopper rapidement des produits pourrait entraĂźner un manque d’attention Ă  la sĂ©curitĂ©, ce qui pourrait culminer en menaces d’extinction. Il a mentionnĂ© la possibilitĂ© que les IA Ă©voluent jusqu’Ă  avoir des motivations propres et dĂ©veloppent des sous-objectifs comme obtenir un contrĂŽle autonome. Il a citĂ© des exemples rĂ©cents de modĂšles de langage qui ont montrĂ© des comportements trompeurs et a mis en avant l’utilisation de l’IA dans la gĂ©nĂ©ration d’objectifs militaires, ce qu’il considĂšre comme seulement le dĂ©but des problĂšmes.

Le professeur a proposĂ© la crĂ©ation de quelque chose de similaire aux Conventions de GenĂšve pour rĂ©guler l’usage militaire de l’IA, bien qu’il craigne que cela ne se matĂ©rialise qu’aprĂšs des Ă©vĂ©nements trĂšs nĂ©gatifs. Dans un contexte global de rivalitĂ©s, il a mentionnĂ© que des puissances comme la Russie et la Chine sont engagĂ©es dans une course aux armements avec l’IA, ce qui complique encore davantage la situation.

DÉCOUVREZ EN PLUS SUR LE SUJET

Laissez le premier commentaire