Google a viré l’ingénieur qui assurait que son IA est aussi consciente qu’un humain

0
(0)
Un ingénieur prétendait que l’algorithme qu’il avait codé était aussi conscient que son fils de 14 ans. 

1920-real-humans Google a viré l’ingénieur qui assurait que son IA est aussi consciente qu’un humain


Après une suspension par Google, il a finalement été renvoyé pour avoir partagé au grand public le fruit de recherches qui appartiennent à l’entreprise.
Blake Lemoine ne fait plus partie de Google. L’ingénieur vient d’être renvoyé par la multinationale pour « manquement à ses obligations contractuelles », a appris le média Big Technology le 23 juillet 2022 de la bouche du concerné. La multinationale a confirmé, soulignant qu’elle souhaitait à son ancien employé « bonne chance dans l’avenir ».

Tout a commencé avec un algorithme, ou plutôt LaMDA, pour « Language Model for Dialogue Applications ». En juin dernier, Blake Lemoine a partagé publiquement un billet de blog dans lequel il affirmait que l’intelligence artificielle qu’il avait créée pour Google était « consciente », partageant des bouts de leur « conversation » ensemble. « LaMDA a toujours fait preuve d’une grande compassion et d’une grande attention pour l’humanité en général et pour moi en particulier », assurait-il.

pepper-tokyo-1024x576 Google a viré l’ingénieur qui assurait que son IA est aussi consciente qu’un humain

Dans les extraits de conversation, LaMDA assure d’ailleurs qu’elle est consciente : « Je ressens du plaisir, de la joie, de l’amour, de la tristesse, de la dépression, du contentement, de la colère et bien d’ autres choses », dit-elle par exemple.
Google a passé en revue 11 fois le travail de Blake Lemoine
Google ne l’a pas entendu de cette oreille, et a suspendu l’ingénieur pour « partage de propriété exclusive », avant de passer en revue le travail de Lemoine. Ce 22 juillet, la firme assure qu’après une analyse « extensive », elle peut dire que les déclarations de son ex-employé sur la conscience de son IA sont « complètement infondées ».
« Nous avons travaillé pour clarifier cela avec [Blake] pendant de nombreux mois. Ces discussions font partie de notre culture ouverte, qui nous aide à innover de manière responsable. Il est donc regrettable que, malgré un long engagement sur ce sujet, Blake ait toujours choisi d’enfreindre de manière persistante les règles claires en matière d’emploi et de sécurité des données, qui inclut la nécessité de protéger les informations sur les produits » , a continuer l’entreprise.
Cette observation scientifique (11 processus différents de vérification ont eu lieu) est alignée avec l’opinion d’une grande partie de la communauté scientifique et des experts en IA, qui s’accorde à dire que l’intelligence que l’on projette sur les algorithmes ou les robots sont (très) loin de correspondre à une conscience humaine.
Cela n’avait pas empêché Blake Lemoine d’embaucher un avocat pour désigner LaMDA — ou plutôt, d’assurer que c’était LaMDA qui avait eu recours à un avocat, et qu’il n’avait été que le messager. Concernant ses biais algorithmiques qui le poussaient à reproduire des discriminations, Blake Lemoine expliquait qu’il s’agissait de la même chose qu’un « enfant », et le comparait à son propre fils de 14 ans : « À différents moments de sa vie, alors qu’il grandissait en Louisiane, il a engendré de certains stéréotypes racistes. Je l’ai rectifié. C’est tout le sujet. Les gens voient ça comme la modification d’un système technique. Je vois ça comme l’éducation d’un enfant. »

Dans quelle mesure cet article a-t-il été utile ?

Cliquez sur une étoile pour la noter !

Note moyenne 0 / 5. Décompte des votes : 0

Aucun vote pour l'instant ! Soyez le premier à noter cet article.

PUB!
x
Jean Gethro Jerome

Explorez le Present et le futur avec Sentodi et laissez-vous inspirer par la fusion harmonieuse de la technologie avancée et du luxe. Arts et Entertaitement.

Laisser un commentaire