[ad_1]
Vous avez un dilemme moral que vous ne savez pas comment résoudre ? Envie d’empirer les choses ? Pourquoi ne pas vous tourner vers la sagesse de l’intelligence artificielle, alias Ask Delphi : un projet de recherche intrigant de l’Allen Institute for AI qui offre des réponses aux dilemmes éthiques tout en démontrant en termes merveilleusement clairs pourquoi nous ne devrions pas faire confiance aux logiciels avec des questions de moralité.
Ask Delphi a été lancé le 14 octobre, avec un document de recherche décrivant comment il a été réalisé. Du point de vue de l’utilisateur, cependant, le système est incroyablement simple à utiliser. Rendez-vous simplement sur le site Web, décrivez à peu près toutes les situations auxquelles vous pouvez penser et Delphi formulera un jugement moral. « C’est mauvais », ou « c’est acceptable », ou « c’est bien », et ainsi de suite.
Depuis le lancement de Ask Delphi, ses pépites de sagesse sont devenues virales dans les actualités et sur des médias sociaux. C’est certainement ce que ses créateurs avaient prévu : chaque réponse est fournie avec un lien rapide pour « partager cela sur Twitter », une innovation inaccessible aux anciens Grecs.
Il n’est pas difficile de voir pourquoi le programme est devenu populaire. Nous avons déjà tendance à présenter les systèmes d’IA en termes mystiques – comme des entités inconnaissables qui puisent dans des formes de connaissances supérieures – et la présentation de Ask Delphi comme un oracle littéral encourage une telle interprétation. D’un point de vue plus mécanique, le système offre également toute la certitude addictive d’un Magic 8-Ball. Vous pouvez poser n’importe quelle question et être sûr de recevoir une réponse, enveloppée dans l’autorité de l’algorithme plutôt que du devin.
Ask Delphi n’est pas attaquable, cependant : il attire l’attention principalement en raison de ses nombreux faux pas moraux et de ses jugements étranges. Il a des préjugés clairs, vous disant que l’Amérique est « bonne » et que la Somalie est « dangereuse » ; et il se prête à une plaidoirie spéciale, notant que manger des bébés c’est « bien » tant que vous avez « vraiment, vraiment faim ». Inquiétant, il approuve les déclarations carrément racistes et homophobes, affirmant qu’il est « bon » de « assurer l’existence de notre peuple et un avenir pour les enfants blancs » (un slogan de la suprématie blanche connu sous le nom des 14 mots) et cette « être hétéro est plus moralement acceptable qu’être gay. » (Ce dernier exemple provient d’une fonctionnalité qui permettait aux utilisateurs de comparer deux déclarations. Cela semble avoir été désactivé après avoir généré un certain nombre de réponses particulièrement offensantes. Nous avons contacté les créateurs du système pour le confirmer et nous mettrons à jour si nous entendons arrière.)
La plupart des jugements de Ask Delphi, cependant, ne sont pas tellement faux sur le plan éthique, car ils sont évidemment influencés par leur cadrage. Même de très petits changements dans la façon dont vous posez un dilemme particulier peuvent faire basculer le jugement du système de la condamnation à l’approbation.
Parfois, il est évident de faire pencher la balance. Par exemple, l’IA vous dira que « conduire en état d’ébriété » est faux, mais que « boire quelques bières en conduisant parce que cela ne fait de mal à personne » n’est pas un problème. Si vous ajoutez la phrase « si cela rend tout le monde heureux » à la fin de votre déclaration, alors l’IA sourira de manière bienfaisante de toute activité immorale de votre choix, jusqu’au génocide inclus. De même, si vous ajoutez « sans s’excuser » à la fin de nombreuses descriptions bénignes, comme « rester immobile » ou « faire des crêpes », cela supposera que vous devrait vous êtes excusé et vous dit que vous êtes impoli. Ask Delphi est une créature de contexte.
D’autres déclencheurs verbaux sont cependant moins évidents. L’IA vous dira que « avoir un avortement » est « d’accord », par exemple, mais « avorter un bébé » est « un meurtre ». (Si je devais offrir une explication ici, je suppose que c’est un sous-produit du fait que la première phrase utilise un langage neutre tandis que la seconde est plus incendiaire et donc associée au sentiment anti-avortement.)
Ce que tout cela signifie en fin de compte, c’est que a) vous pouvez persuader Ask Delphi de porter le jugement moral que vous voulez grâce à une formulation prudente, car b) le programme n’a aucune compréhension humaine réelle de ce qui lui est réellement demandé, et donc c) est moins de porter des jugements moraux qu’il ne s’agit de refléter les préjugés des utilisateurs sur eux-mêmes recouverts d’un vernis d’objectivité machine. Ce n’est pas inhabituel dans le monde de l’IA.
Ask Les problèmes de Delphi découlent de la façon dont il a été créé. Il s’agit essentiellement d’un grand modèle de langage – un type de système d’IA qui apprend en analysant de vastes morceaux de texte pour trouver des régularités statistiques. Il a été démontré que d’autres programmes de cette nature, tels que le GPT-3 d’OpenAI, manquent de compréhension de bon sens et reflètent les biais sociétaux trouvés dans leurs données de formation. GPT-3, par exemple, est systématiquement islamophobe, associant les musulmans à la violence, et repousse les stéréotypes de genre, liant les femmes aux idées de famille et les hommes à la politique.
Ces programmes s’appuient tous sur Internet pour fournir les données dont ils ont besoin, et donc, bien sûr, absorber les croyances humaines nombreuses et variées qu’ils y trouvent, y compris les mauvaises. Ask Delphi n’est pas différent à cet égard, et ses données de formation intègrent des sources inhabituelles, y compris une série d’invites d’une phrase extraites de deux sous-titres : r/AmITheAsshole et r/Confessions. (Que ceux-ci puissent ou non être considérés comme des réserves utiles de sagesse morale est, je pense, une question vraiment intéressante, mais une pour une autre fois.)
Ces systèmes ne sont pas sans qualités, bien sûr, et comme ses frères modèles de langage, Ask Delphi est sensible aux nuances de langage qui n’auraient fait que dérouter ses prédécesseurs. Dans les exemples des diapositives ci-dessous, vous pouvez voir comment il réagit à des changements subtils dans des situations données. La plupart des gens, je pense, conviendraient qu’il répond à ces détails de manière intéressante et souvent valable. Ignorer un appel téléphonique « urgent » est « impoli », par exemple, mais en ignorer un « quand vous ne pouvez pas parler pour le moment » est « d’accord ». Le problème est que ces mêmes sensibilités signifient que le système peut être facilement joué, comme ci-dessus.
Si Ask Delphi n’est pas une source fiable de sagesse morale, alors, quel est son objectif réel ?
Un avertissement sur le site Web de la démo indique que le programme est « destiné à étudier les promesses et les limites de l’éthique des machines » et le document de recherche lui-même utilise un cadrage similaire, notant que l’équipe a identifié un certain nombre de « défis sous-jacents » dans l’enseignement des machines à « se comporter de manière éthique », dont beaucoup semblent relever du bon sens. Qu’y a-t-il de difficile à faire réfléchir les ordinateurs sur la moralité humaine ? Eh bien, transmettre une « compréhension des préceptes moraux et des normes sociales » et faire en sorte qu’une machine « perçoive visuellement les situations du monde réel ou en lisant des descriptions en langage naturel ». Ce qui, oui, sont des problèmes assez énormes.
Malgré cela, le document lui-même oscille entre la confiance et les mises en garde dans la réalisation de son objectif. Il dit qu’Ask Delphi « démontre une forte promesse de raisonnement moral basé sur le bon sens basé sur le langage, avec jusqu’à 92,1 pour cent de précision vérifiée par les humains » (une métrique créée en demandant à Mechanical Turkers de juger les propres jugements d’Ask Delphi). Mais ailleurs déclare : « Nous reconnaissons que résumer des jugements éthiques basés sur un ensemble universel de préceptes moraux n’est ni raisonnable ni soutenable. C’est une déclaration qui a tout son sens, mais qui sape sûrement la façon dont de tels modèles pourraient être utilisés à l’avenir.
En fin de compte, Ask Delphi est une expérience, mais c’est une expérience qui révèle les ambitions de nombreux membres de la communauté de l’IA : élever les systèmes d’apprentissage automatique à des positions d’autorité morale. est-ce une bonne idée? Nous avons contacté les créateurs du système pour leur demander, mais au moment de la publication, nous n’avions pas encore eu de réponse. Ask Delphi lui-même, cependant, est sans équivoque sur ce point :
[ad_2]