banner

Nouvelles

Sep 06, 2023

L'IA ne conduira probablement pas l'humanité à l'extinction, mais elle peut être nocive

L'IA fait déjà du mal à certaines personnes très vulnérables.

Plus de 350 experts en technologie, chercheurs en IA et chefs de file de l'industrie ont signé la déclaration sur les risques liés à l'IA publiée par le Center for AI Safety la semaine dernière. C'est un avertissement très court et succinct d'une seule phrase pour nous tous :

L'atténuation du risque d'extinction de l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire.

Ainsi, les experts en IA, y compris les ingénieurs de terrain de Google et de Microsoft qui libèrent activement l'IA dans le monde, pensent que l'IA a le potentiel d'être un événement d'extinction mondiale dans la même veine qu'une guerre nucléaire. Ouais.

J'admets que j'ai pensé la même chose que beaucoup de gens ont fait quand ils ont lu cette déclaration pour la première fois - c'est un tas de conneries. Oui, l'IA a beaucoup de problèmes et je pense qu'il est un peu tôt pour s'y appuyer autant que certaines entreprises de technologie et d'information le font, mais ce genre d'hyperbole est tout simplement stupide.

Ensuite, j'ai fait quelques recherches sur l'IA du Bard Beta Lab et j'ai trouvé plusieurs façons dont l'IA est déjà nocive. Certains des plus vulnérables de la société sont encore plus à risque en raison de l'IA générative et de la stupidité de ces ordinateurs intelligents.

La National Eating Disorders Association a licencié ses opérateurs de ligne d'assistance le 25 mai 2023 et les a remplacés par Tessa le ChatBot. Les travailleurs étaient en train de se syndiquer, mais la NEDA affirme "qu'il s'agissait d'un changement attendu depuis longtemps et que l'IA peut mieux servir les personnes souffrant de troubles de l'alimentation" et n'avait rien à voir avec six employés rémunérés et divers bénévoles essayant de se syndiquer.

Le 30 mai 2023, NEDA a désactivé Tessa le ChatBot parce qu'il offrait des conseils préjudiciables aux personnes souffrant de troubles alimentaires graves. Officiellement, la NEDA est "préoccupée et travaille avec l'équipe technologique et l'équipe de recherche pour approfondir cette question ; ce langage va à l'encontre de nos politiques et de nos croyances fondamentales en tant qu'organisation pour les troubles de l'alimentation".

Aux États-Unis, 30 millions de personnes souffrent de troubles alimentaires graves et 10 200 mourront chaque année des suites directes de ces troubles. Un toutes les heures.

Ensuite, nous avons Koko, une organisation à but non lucratif de santé mentale qui a utilisé l'IA comme expérience sur des adolescents suicidaires. Oui, tu l'as bien lu.

Les utilisateurs à risque ont été dirigés vers le site Web de Koko à partir des médias sociaux, où chacun a été placé dans l'un des deux groupes. Un groupe a reçu un numéro de téléphone vers une véritable ligne d'assistance téléphonique en cas de crise où ils pourraient, espérons-le, trouver l'aide et le soutien dont ils avaient besoin.

L'autre groupe a eu l'expérience de Koko où ils ont pu répondre à un quiz et ont été invités à identifier les choses qui ont déclenché leurs pensées et ce qu'ils faisaient pour y faire face.

Une fois terminé, l'IA leur a demandé s'ils vérifieraient leurs notifications téléphoniques le lendemain. Si la réponse était oui, ils ont été poussés vers un écran disant "Merci pour ça ! Voici un chat !" Bien sûr, il y avait une photo d'un chat, et apparemment, Koko et le chercheur en IA qui ont aidé à créer cette pensée qui améliorera les choses d'une manière ou d'une autre.

Je ne suis pas qualifié pour parler de l'éthique de situations comme celle-ci où l'IA est utilisée pour fournir un diagnostic ou une aide aux personnes aux prises avec des problèmes de santé mentale. Je suis un expert en technologie qui se concentre principalement sur les smartphones. Cependant, la plupart des experts humains conviennent que la pratique est pleine de problèmes. Je sais que le mauvais type d'"aide" peut aggraver une mauvaise situation et l'aggravera.

Si vous avez des problèmes de santé mentale ou si vous avez besoin d'aide, veuillez appeler ou envoyer un SMS au 988 pour parler à un humain qui peut vous aider.

Ce genre d'histoires racontent deux choses : l'IA est très problématique lorsqu'elle est utilisée à la place de personnes qualifiées en cas de crise, et de vraies personnes censées être mieux informées peuvent aussi être stupides.

L'IA dans son état actuel n'est pas prête à être utilisée de cette façon. Même pas proche. Emily M. Bender, professeur à l'Université de Washington, fait un excellent point dans une déclaration à Vice :

"Les grands modèles de langage sont des programmes permettant de générer un texte à consonance plausible compte tenu de leurs données de formation et d'une invite de saisie. Ils n'ont aucune empathie, ni aucune compréhension de la langue qu'ils produisent, ni aucune compréhension de la situation dans laquelle ils se trouvent. Mais le texte qu'ils produisent semble plausible et les gens sont donc susceptibles de lui attribuer un sens. Jeter quelque chose comme ça dans des situations sensibles, c'est prendre des risques inconnus. "

Je veux nier ce que je vois et lis pour pouvoir prétendre que les gens ne prennent pas de raccourcis ou n'essaient pas d'économiser de l'argent en utilisant l'IA d'une manière aussi nocive. L'idée même me rend malade. Mais je ne peux pas parce que l'IA est encore idiote et apparemment beaucoup de gens qui veulent l'utiliser aussi.

Peut-être que l'idée d'un événement d'extinction de masse dû à l'IA n'est pas si farfelue après tout.

Accès instantané aux dernières nouvelles, aux critiques les plus chaudes, aux bonnes affaires et aux conseils utiles.

Jerry est un menuisier amateur et un mécanicien d'arbres d'ombrage en difficulté. Il n'y a rien qu'il ne puisse pas démonter, mais beaucoup de choses qu'il ne puisse pas remonter. Vous le trouverez en train d'écrire et de prononcer son opinion à voix haute sur Android Central et occasionnellement sur Twitter.

Comment partager votre position dans Google Maps

Google Slides prend enfin un outil de génération d'images basé sur l'IA

Une Pixel Watch a été laissée dans une voiture toute la journée, et voici ce qui se passe ensuite

Par Jerry Hildenbrand27 mai 2023

Par Nicholas Sutrich25 mai 2023

Par Andrew Myrick24 mai 2023

Par Jerry Hildenbrand20 mai 2023

Par Nicholas Sutrich19 mai 2023

Par Namerah Saud Fatmi17 mai 2023

Par Michael L Hicks, Nicholas Sutrich15 mai 2023

Par Derrek Lee15 mai 2023

Par Andrew Myrick15 mai 2023

Par Michael L Hicks14 mai 2023

Par Michael L Hicks13 mai 2023

Si vous avez des problèmes de santé mentale ou si vous avez besoin d'aide, veuillez appeler ou envoyer un SMS au 988 pour parler à un humain qui peut vous aider.
PARTAGER