Temple Grandin : L'IA et ChatGPT sont formidables, mais nous avons encore besoin d'experts.

Nouvelles

MaisonMaison / Nouvelles / Temple Grandin : L'IA et ChatGPT sont formidables, mais nous avons encore besoin d'experts.

May 03, 2023

Temple Grandin : L'IA et ChatGPT sont formidables, mais nous avons encore besoin d'experts.

J'ai pris conscience de l'IA pour la première fois en 1968, lorsque j'ai vu un film qui m'a marqué

J'ai pris conscience de l'IA pour la première fois en 1968, lorsque j'ai vu un film qui m'a profondément marqué, 2001 : L'Odyssée de l'espace, du réalisateur Stanley Kubrick. J'avais 21 ans. J'adorais les films de science-fiction, mais celui-ci avait une signification particulière.

En tant que personne autiste, je suis plus rationnel et basé sur les faits qu'émotionnel et basé sur les sentiments, et mon discours a été décrit comme monotone ou non modulé. Au lycée, certains enfants m'appelaient "robot" et "magnétophone". C'est en partie pourquoi j'ai parlé de HAL, l'ordinateur sensible qui, avec sa voix stable et son hyper-logique, aide les astronautes dans leur mission (jusqu'à ce qu'il ne le fasse pas). Mais je n'ai pas accordé autant d'attention à l'IA jusqu'en 1997, lorsque l'ordinateur IBM Deep Blue a battu le champion du monde d'échecs Garry Kasparov. Cela a changé la donne. Puis, en 2003, j'ai été époustouflé lorsque deux rovers martiens ont été envoyés passer leurs journées à naviguer seuls sur la surface de la planète, sans contrôle humain.

Depuis lors, l'IA a fait son chemin dans notre vie quotidienne, alimentant Siri, des voitures autonomes, des publicités contextuelles sur les réseaux sociaux, des algorithmes pour les investissements personnels, et bien plus encore. Plus récemment, la société technologique OpenAI a introduit ChatGPT, donnant un accès gratuit à cette technologie remarquable. Déjà, ChatGPT a réussi l'examen du barreau.

Je voulais savoir quelle expertise ChatGPT pouvait invoquer dans mon travail. Je lui ai demandé d'écrire un court paragraphe sur les principes comportementaux de la manipulation du bétail. Il a fait un travail précis en résumant l'un de mes articles, démontrant que les analyses mathématiques ne sont aussi bonnes que les données qui y sont insérées. Puis, en utilisant une formulation que je n'utilise pas normalement, afin qu'il ne puisse pas simplement rechercher mon propre travail, je lui ai demandé d'écrire un court paragraphe sur les bonnes méthodes de manipulation du bétail. Il a écrit un paragraphe précis et concis sur les principes comportementaux impliqués. Pour les deux paragraphes, il fournissait des références réelles et pertinentes. Cependant, dans un cas, il comprenait un vieux schéma d'une très mauvaise conception d'une installation - une conception qu'un nouveau venu dans l'industrie ne saurait pas être gravement défectueuse. Pour tout domaine qui utilise l'IA, nous aurons toujours besoin d'experts.

Jusqu'à présent, la plupart des préoccupations concernant l'IA se sont concentrées sur la question de savoir si les machines supprimeront les emplois des gens, si l'IA rendra la race humaine superflue. Je crois que cette inquiétude est déplacée. Chaque révolution technologique supprime certains emplois et en crée d'autres. Les vrais dangers, je crois, sont ailleurs.

Parce que je ne suis pas seulement autiste mais aussi un penseur très visuel, le sens me vient d'abord dans les images. Mon esprit est comme un simulateur qui exécute l'équivalent de vidéos, montrant comment les choses se passent, en particulier comment elles peuvent mal tourner. C'est l'antithèse du raisonnement hautement abstrait qui a conduit aux percées radicales de l'IA. Mais ce sont les penseurs visuels comme moi qui sont spécialement équipés pour s'assurer que ces progrès ne se font pas trop cher.

Pour la plupart des gens, l'IA est une abstraction, quelque chose qui s'apparente à de la magie. C'est dangereux. Nous ferions mieux d'y penser comme nous le faisons avec les infrastructures physiques, comme les routes ou les usines de transformation, avec leurs vulnérabilités et leurs conséquences dans le monde réel. L'IA aide notre monde à fonctionner, mais tout utilitaire important et puissant peut mal tourner. Au cours de mes 50 années de travail dans l'industrie, j'ai été témoin des réactions en chaîne déclenchées par la défaillance humaine et de la vulnérabilité de nos infrastructures essentielles, telles que les systèmes d'eau et d'électricité. Ces systèmes sont désormais davantage menacés si, par exemple, des pirates prennent le contrôle des ordinateurs qui contrôlent l'équipement - un danger de plus en plus réel maintenant que les programmes d'IA peuvent écrire du code informatique. La meilleure façon de protéger nos réseaux d'eau et d'électricité est d'utiliser des commandes électromécaniques à l'ancienne qui éteindront les équipements vulnérables s'ils deviennent trop chauds, tournent trop vite ou accumulent une pression excessive.

Heather Tal Murphy

J'ai vu l'avenir qui terrifie les acteurs d'Hollywood

En savoir plus

Je me suis amusé à jouer avec ChatGPT. En plus de lui poser des questions sur mon domaine, j'ai recherché ses réflexions sur les zèbres volants violets. (Il a déterminé que ces créatures sont fictives et se nourrissent de nuages ​​et d'arcs-en-ciel.) Mais je partage également l'alarme exprimée par Sam Altman, le chef du créateur de ChatGPT, OpenAI, lorsqu'il a récemment déclaré au Sénat : "Si cette technologie tourne mal, elle peut mal tourner." Montrant aux législateurs comment ChatGPT pouvait concocter un discours de sénateur tout à fait convaincant, Altman leur a dit que l'IA devrait être empêchée de se reproduire ou de s'échapper dans la nature. Un programme d'IA qui se serait transformé en un clone pourrait se frayer un chemin dans un centre de données, causant des dommages inimaginables si les opérateurs humains ne sont pas suffisamment alertes pour intervenir. Si nous voulons bénéficier de l'IA, surtout maintenant que les outils pour l'utiliser de manière unique sont largement disponibles, nous devons non seulement la protéger en tant qu'infrastructure cruciale, mais nous devons également former les citoyens ordinaires à l'autodéfense de base de l'IA.

Toute personne dans un domaine qui nécessite de s'appuyer sur des faits scientifiques doit savoir comment rechercher des bases de données scientifiques pour vérifier elle-même les allégations. Pour les sujets non scientifiques mais controversés, les gens doivent apprendre à vérifier les affirmations par rapport à de multiples sources d'informations crédibles. Un bon logiciel pour détecter les fausses photos – qui peuvent amplifier considérablement les fausses nouvelles – est disponible ; nous devons éduquer les gens sur la façon de l'utiliser. Et les personnes ayant la capacité de résoudre visuellement les problèmes, qui peuvent simuler des conséquences imprévues dans leur esprit et envisager des solutions en temps réel, doivent être mises à profit. Le danger n'est pas une abstraction. Nous avons besoin de gens qui vivent là où je vis : dans le monde des choses pratiques. Qu'il s'agisse de pompes à eau ou de réseaux électriques dans le monde extérieur ou de problèmes de plomberie et d'électricité de base dans nos maisons, les gens doivent savoir comment réparer les choses. Je crains que certains enfants puissent maintenant coder au collège mais n'aient jamais ramassé un marteau ou enfilé une aiguille. S'ils deviennent des décideurs, il leur sera très difficile d'élaborer des politiques efficaces sur des choses comme les infrastructures qui dépendent de connaissances et de capacités pratiques.

Pouvons-nous apprendre tout ce dont nous avons besoin pour nous protéger plus rapidement que le rythme des progrès de l'IA ? Les conséquences de la technologie sont stupéfiantes. Les chercheurs développent des méthodes d'utilisation de l'IA pour comprendre et manipuler les processus biologiques moléculaires. Et si quelqu'un créait un nouveau virus dangereux ? Le danger ultime que l'IA pourrait faire, selon les rapports sur les remarques d'Altman, est "de manipuler les humains pour qu'ils cèdent le contrôle". Et s'il incitait quelqu'un à lancer plusieurs missiles avec des ogives atomiques en simulant des rapports radar sur des armes entrantes ? Aurons-nous un logiciel capable de détecter la manipulation, ou une technologie satellitaire capable de détecter la chaleur qui prouverait ou infirmerait les signalements radar ? Aurons-nous des personnes formées pour utiliser cette technologie, et le réseau de communication requis, pour s'assurer que personne ne manque une étape ?

Ces questions sont profondément complexes, mais en envisageant des solutions concrètes, nous avons plus de contrôle que nous ne le pensons. Peut-être devrons-nous revenir à l'ancienne ligne fixe "téléphone rouge" qui reliait les présidents des puissances nucléaires. Un téléphone rouge acheminé via un équipement électromécanique non informatisé. En regardant 2001 : L'Odyssée de l'espace, j'ai pleuré quand David a dû éteindre HAL après qu'il ait tué les autres astronautes. HAL avait un interrupteur d'arrêt. Il en va de même pour l'IA

Future Tense est un partenariat entre Slate, New America et Arizona State University qui examine les technologies émergentes, les politiques publiques et la société.