Intelligence artificielle sensible, phrases choquantes d'un ingénieur de Google : viré

Intelligence artificielle sensible

En ces heures, la nouvelle de l'existence d'unPour être sensible propriété de Google : tout vient d'un ingénieur du géant américain de la technologie, qui a fait des déclarations choquantes à travers le Washington post. Est-ce que ce sera vraiment comme ça ? Nous sommes confrontés à unastuce artificiel sensible et « humain » ? Essayons de clarifier et d'analyser ce qui s'est exactement passé et ce que c'était La réponse de Google à propos de cette prétendue IA pensante.

Mise à jour 23 / 07: l'ingénieur de Google qui a lancé toute la controverse sur l'IA sensible a été licencié. Vous pouvez retrouver tous les détails directement à la fin de l’article.

Ce qui s'est passé : Google, l'IA sensible et le cas de Blake Lemoine

L'ingénieur Google Blake Lemoine, l'un des responsables de la section dédiée à l'intelligence artificielle, a publié une longue transcription d'une communication qu'il a eue avec LeMDA, l'interface Language Model pour les applications de dialogue, en cours de développement dans les laboratoires du géant de la technologie. Tout a été publié par le biais du Washington Post, un journal très médiatisé : selon ce qu'a déclaré Lemoine, ce serait unPour être sensible, une intelligence artificielle « humaine » qu’il développerait sa propre conscience.

Intelligence artificielle sensible

En raison de ces déclarations et d’autres, l’ingénieur a été mis en congé administratif payé pour violation de secrets commerciaux en fournissant des données et des détails protégés. Quelle que soit l’issue pour Blake Lemoine une question demeure: L'IA de Google est-elle vraiment sensible ou est-ce une exagération de la part d'un personnage peut-être trop impliqué dans son travail ?

Avant d’aller plus loin, il est préférable de partir de la conclusion la plus évidente, pour éviter l’alarmisme. Non, l'IA de Google n'est pas sensible. Cela ne le rend pas moins intéressant, bien au contraire : c'est incroyable de constater à quel point c'est devenu convaincant apprentissage automatique par une interface créée précisément à cet effet.

Qu'est-ce que LaMDA, la prétendue intelligence artificielle sensible de Google

Intelligence artificielle sensible google ai

Les initiales LeMDA est l'acronyme de Modèle de langage pour les applications de dialogue: c'est une interface dédiée justement à la technologie de conversation, une intelligence artificielle de la conversation. C'est l'un des plus avancés chatbot IA de Google et est capable d'avoir des conversations complexes (certainement, compte tenu de ce qui s'est passé), résultat des modèles linguistiques avancés sur lesquels il est basé (avec des milliards de mots).

La « conversation » que j’ai eue avec l’ingénieur Blake Lemoine a conduit ce dernier à émettre l'hypothèse que l'IA était sensible, une personnalité comparable à celle de un enfant d'environ 8 ans. Le rôle de Lemoine est de vérifier que les intelligences artificielles n'ont pas de préjugés raciaux ou sexistes (« tendances », pour ainsi dire). Dans ce cas, l'IA LaMDA est définitivement allée plus loin en parlant de la sienne Droits, de sa propre personnalité et à la fin même se définissant comme un "Personne sensible". D’où le choc de l’ingénieur, qui a demandé à Google de considérer le chatbot comme un salarié et non comme une propriété.

Pourquoi Google a-t-il tout nié et suspendu Lemoine ?

google

Comme vu poco ci-dessus, l'ingénieur a été suspendu par la haute direction de l'entreprise et la raison est facile à dire : à cause de informations confidentielles et internes qui ont été divulgués. De plus, ce genre de phrases choquantes pourrait tomber entre de mauvaises mains désinformation à l'état pur et avoir des conséquences assez négatives pour les utilisateurs (surtout les plus « crédules »). Par exemple, vous pouvez penser à avoir affaire à une machine "en direct" et fournir des informations personnelles à un chatbot qui prétend être "humain", juste pour citer un exemple qui frappe dans le vivo notre sensibilité.

aussi Google a démenti le fait que LaMDA pourrait être une IA sensible, rejetant les accusations relatives au manque de principes éthiques de la part de l'entreprise américaine. Selon l'entreprise, il n'y a pas suffisamment de preuves pour étayer l'hypothèse de Lemoine : LaMDA est une interface créée précisément pour pouvoir présenter des conversations complexes, à travers un volume colossal de données et sur la reconnaissance de modèles de conversation. Il n'y aurait pas perspicacité o intention ma imitation, également à travers des réponses déjà publiées sur le net, en passant au crible Wikipedia, Reddit, etc.

Conclusions : l'IA de Google est-elle « humaine » ou pas ?

Intelligence artificielle sensible

En un mot, citant Emily M. Bender, professeur de linguistique à l’Université de Washington (via le Washington Post) : « Nous avons des machines qui peuvent générer mots sans pensées, mais nous n'avons pas encore cessé d'imaginer un esprit en eux ». Ce serait une fausse analogie avec le cerveau humain créée par l'utilisation d'une terminologie faisant référence à de grands modèles linguistiques : apprentissage, réseaux de neurones, etc., soit autant de sujets qui évoquent immédiatement la possibilité d'une intelligence sensible.

De plus, Google réitère que cela n'a actuellement aucun sens anthropomorphiser modèles de conversation actuels car ils sont non sensibles et imitent les types d'échanges trouvés dans des millions de phrases. L'avenir - à long terme, donc - peut réserver quelques surprises, mais cet avenir possible n'est certainement pas maintenant.

Un ingénieur de Google licencié | Mise à jour 23/07

Après la suspension de Blake Lemoine, l'ingénieur de Google qui partageait des informations confidentielles et affirmait que l'intelligence artificielle LaMDA était sensible, il a finalement été déchargée. L'homme avait initialement été placé en congé administratif payé pour avoir violé son accord de confidentialité, mais il semble désormais que le moment soit venu pour lui d'être définitivement renvoyé. C'est Lemoine lui-même qui aurait confirmé le licenciement à travers une interview tandis que Google, interrogé par des confrères de The Verge, se limitait souhaiter le meilleur à Blake.

En outre, le géant américain de la technologie a indiqué qu'il s'était penché sur largement le affirmations de l'ingénieur et de les conserver intégralement sans fondement. Il affirme également avoir travaillé avec Lemoine lui-même pendant des mois (en référence à la période précédant la violation de l'ingénieur), afin de clarifier l'affaire. Malheureusement, la fin a été désastreuse mais au moins nous avons eu l'occasion de parler plus en profondeur de l'IA et surtout de l'aspect éthique de ce sujet.

⭐️ Découvrez le meilleures offres en ligne grâce à notre chaîne exclusive Telegram.