Les doomers de l’IA sont un « culte » – voici la vraie menace, dit Marc Andreessen

[ad_1]

Andreessen Horowitz associé Marc Andreessen

Justin Sullivan | Getty Images

Le capital-risqueur Marc Andreessen est connu pour dire que « les logiciels dévorent le monde ». En ce qui concerne l’intelligence artificielle, il affirme que les gens devraient cesser de s’inquiéter et construire, construire, construire.

Mardi, Andreessen a publié une missive de près de 7 000 mots sur son point de vue sur l’IA, les risques qu’elle pose et la réglementation qu’elle estime nécessaire. En essayant de contrecarrer tous les discours récents sur le « doomérisme de l’IA », il présente ce qui pourrait être considéré comme une perspective trop idéaliste des implications.

‘Ne veut pas te tuer’

actualités liées à l’investissement

CNBC Pro

Andreessen commence par une approche précise de l’IA, ou apprentissage automatique, l’appelant « l’application des mathématiques et du code logiciel pour enseigner aux ordinateurs comment comprendre, synthétiser et générer des connaissances de manière similaire à la façon dont les gens le font ».

L’IA n’est pas sensible, dit-il, malgré le fait que sa capacité à imiter le langage humain peut naturellement tromper certains en leur faisant croire le contraire. Il est formé sur le langage humain et trouve des modèles de haut niveau dans ces données.

« L’IA ne veut pas, elle n’a pas d’objectifs, elle ne veut pas vous tuer, car elle n’est pas vivante », a-t-il écrit. « Et l’IA est une machine – ne va pas plus prendre vie que votre grille-pain. »

Andreessen écrit qu’il existe actuellement un « mur de la peur et du doomérisme » dans le monde de l’IA. Sans nommer de noms, il fait probablement référence aux affirmations de leaders technologiques de haut niveau selon lesquelles la technologie constitue une menace existentielle pour l’humanité. La semaine dernière, Microsoft le fondateur Bill Gates, le PDG d’OpenAI Sam Altman, le PDG de DeepMind Demis Hassabis et d’autres ont signé une lettre du Center for AI Safety sur « le risque d’extinction de l’IA ».

Nous sommes au début du cycle de battage médiatique de l'IA, déclare un fonds de capital-risque

Les PDG de la technologie sont motivés à promouvoir de telles opinions apocalyptiques parce qu’ils « sont susceptibles de gagner plus d’argent si des barrières réglementaires sont érigées qui forment un cartel de fournisseurs d’IA bénis par le gouvernement protégés contre les nouvelles startups et la concurrence open source », a écrit Andreessen.

De nombreux chercheurs et éthiciens en intelligence artificielle ont également critiqué le récit apocalyptique. L’un des arguments est que trop d’attention portée à la puissance croissante de l’IA et à ses menaces futures détourne l’attention des dommages réels que certains algorithmes causent aux communautés marginalisées en ce moment, plutôt que dans un avenir indéterminé.

Mais c’est là que s’arrêtent la plupart des similitudes entre Andreessen et les chercheurs. Andreessen écrit que les personnes occupant des postes tels que l’expert en sécurité de l’IA, l’éthicien de l’IA et le chercheur sur les risques de l’IA « sont payées pour être des condamnés, et leurs déclarations doivent être traitées de manière appropriée », a-t-il écrit. En réalité, de nombreux dirigeants de la communauté de la recherche, de l’éthique, de la confiance et de la sécurité en matière d’IA ont clairement exprimé leur opposition à l’agenda du catastrophisme et se concentrent plutôt sur l’atténuation des risques documentés actuels de la technologie.

Au lieu de reconnaître tous les risques réels documentés de l’IA – ses biais peuvent infecter les systèmes de reconnaissance faciale, les décisions de libération sous caution, les procédures judiciaires pénales, les algorithmes d’approbation de prêts hypothécaires et plus encore – Andreessen affirme que l’IA pourrait être « un moyen d’améliorer tout ce qui nous tient à cœur ».

Il soutient que l’IA a un énorme potentiel de productivité, de percées scientifiques, d’arts créatifs et de réduction des taux de mortalité en temps de guerre.

« Tout ce que les gens font aujourd’hui avec leur intelligence naturelle peut être fait beaucoup mieux avec l’IA », écrit-il. « Et nous pourrons relever de nouveaux défis qui ont été impossibles à relever sans l’IA, de la guérison de toutes les maladies à la réalisation de voyages interstellaires. »

Du domérisme à l’idéalisme

Bien que l’IA ait fait des progrès significatifs dans de nombreux domaines, tels que le développement de vaccins et les services de chatbot, les méfaits documentés de la technologie ont conduit de nombreux experts à conclure que, pour certaines applications, elle ne devrait jamais être utilisée.

Andreessen décrit ces peurs comme une « panique morale » irrationnelle. Il encourage également le retour à l’approche d’antan de l’industrie technologique « avancer vite et casser les choses », écrivant que les grandes entreprises d’IA et les startups « devraient être autorisées à construire l’IA aussi rapidement et agressivement que possible » et que la technologie « accélérera très rapidement d’ici – si nous le laissons. »

Andreessen, qui s’est fait connaître dans les années 1990 pour avoir développé le premier navigateur Internet populaire, a lancé sa société de capital-risque avec Ben Horowitz en 2009. Deux ans plus tard, il a écrit un article de blog souvent cité intitulé « Pourquoi le logiciel dévore le monde », qui disait que les soins de santé et l’éducation devaient subir une « transformation fondamentale basée sur les logiciels », tout comme tant d’industries avant eux.

Manger le monde est exactement ce que beaucoup de gens craignent en matière d’IA. Au-delà de la simple tentative d’apaiser ces inquiétudes, Andreessen dit qu’il y a du travail à faire. Il encourage l’utilisation controversée de l’IA elle-même pour protéger les gens contre les préjugés et les méfaits de l’IA.

« Les gouvernements travaillant en partenariat avec le secteur privé devraient s’engager vigoureusement dans chaque domaine de risque potentiel pour utiliser l’IA afin de maximiser les capacités défensives de la société », a-t-il déclaré.

Dans le futur idéaliste d’Andreessen, « chaque enfant aura un tuteur en IA qui est infiniment patient, infiniment compatissant, infiniment compétent, infiniment utile ». Il exprime des visions similaires du rôle de l’IA en tant que partenaire et collaborateur de chaque personne, scientifique, enseignant, PDG, chef de gouvernement et même commandant militaire.

La Chine est-elle la vraie menace ?

Vers la fin de son article, Andreessen souligne ce qu’il appelle « le risque réel de ne pas poursuivre l’IA avec une force et une vitesse maximales ».

Ce risque, dit-il, est la Chine, qui développe l’IA rapidement et avec des applications autoritaires très préoccupantes. Selon des années de cas documentés, le gouvernement chinois s’appuie sur l’IA de surveillance, comme l’utilisation de la reconnaissance faciale et des données GPS du téléphone pour suivre et identifier les manifestants.

Pour éviter la propagation de l’influence de l’IA en Chine, Andreessen écrit : « Nous devrions introduire l’IA dans notre économie et notre société aussi vite et aussi fort que possible. »

Il propose ensuite un plan de développement agressif de l’IA au nom des grandes entreprises technologiques et des startups et utilisant « la pleine puissance de notre secteur privé, de notre établissement scientifique et de nos gouvernements ».

Andreessen écrit avec un niveau de certitude sur la direction que prend le monde, mais il n’est pas toujours doué pour prédire ce qui va arriver.

Son entreprise a lancé un fonds cryptographique de 2,2 milliards de dollars à la mi-2021, peu de temps avant que l’industrie ne commence à cratérer. Et l’un de ses gros paris pendant la pandémie était sur la startup audio sociale Clubhouse, qui a grimpé à une valorisation de 4 milliards de dollars alors que les gens étaient coincés à la maison à la recherche d’autres formes de divertissement. En avril, Clubhouse a annoncé qu’il licenciait la moitié de son personnel afin de « réinitialiser » l’entreprise.

Tout au long de l’essai d’Andreessen, il évoque les arrière-pensées des autres lorsqu’il s’agit d’exprimer publiquement leur point de vue sur l’IA. Mais il a le sien. Il veut gagner de l’argent sur la révolution de l’IA et investit dans des startups avec cet objectif en tête.

« Je ne crois pas qu’ils soient téméraires ou méchants », a-t-il conclu dans son message. « Ce sont tous des héros. Mon cabinet et moi sommes ravis de soutenir autant d’entre eux que possible, et nous nous tiendrons à leurs côtés et à 100 % pour leur travail. »

MONTRE: Interview de Avresco avec Brad Gerstner d’Altimeter Capital

Regardez l'interview complète de CNBC avec le fondateur d'Altimeter Capital, Brad Gerstner, sur les risques liés à l'IA

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*