Un procès vise la façon dont l’IA est construite

Fin juin, Microsoft a lancé un nouveau type de technologie d’intelligence artificielle capable de générer son propre code informatique.

Appelé Copilot, l’outil a été conçu pour accélérer le travail des programmeurs professionnels. Au fur et à mesure qu’ils tapaient sur leurs ordinateurs portables, cela suggérait des blocs de code informatique prêts à l’emploi qu’ils pourraient ajouter instantanément aux leurs.

De nombreux programmeurs ont adoré le nouvel outil ou ont au moins été encouragés par celui-ci. Mais Matthew Butterick, programmeur, designer, écrivain et avocat à Los Angeles, n’était pas l’un d’entre eux. Ce mois-ci, lui et une équipe d’autres avocats ont déposé une plainte pour obtenir le statut de recours collectif contre Microsoft et les autres sociétés de premier plan qui ont conçu et déployé Copilot.

Comme de nombreuses technologies d’IA de pointe, Copilot a développé ses compétences en analysant de grandes quantités de données. Dans ce cas, il s’appuyait sur des milliards de lignes de code informatique publiées sur Internet. M. Butterick, 52 ans, assimile ce processus à du piratage, car le système ne reconnaît pas sa dette envers le travail existant. Son procès prétend que Microsoft et ses collaborateurs ont violé les droits légaux de millions de programmeurs qui ont passé des années à écrire le code original.

On pense que la poursuite est la première attaque légale contre une technique de conception appelée “formation à l’IA”, qui est un moyen de construire une intelligence artificielle qui est sur le point de refaire l’industrie technologique. Ces dernières années, de nombreux artistes, écrivains, experts et militants de la vie privée se sont plaints que les entreprises entraînent leurs systèmes d’IA en utilisant des données qui ne leur appartiennent pas.

Le procès a des échos dans les dernières décennies de l’industrie technologique. Dans les années 1990 et dans les années 2000, Microsoft a combattu la montée des logiciels open source, les considérant comme une menace existentielle pour l’avenir des activités de l’entreprise. Au fur et à mesure que l’importance de l’open source augmentait, Microsoft l’a adopté et a même acquis GitHub, une maison pour les programmeurs open source et un endroit où ils ont construit et stocké leur code.

Presque toutes les nouvelles générations de technologies, même les moteurs de recherche en ligne, ont été confrontées à des défis juridiques similaires. Souvent, “il n’y a pas de loi ou de jurisprudence qui le couvre”, a déclaré Bradley J. Hulbert, un avocat en propriété intellectuelle spécialisé dans ce domaine de plus en plus important du droit.

La poursuite fait partie d’une vague d’inquiétude concernant l’intelligence artificielle. Les artistes, écrivains, compositeurs et autres créateurs craignent de plus en plus que les entreprises et les chercheurs utilisent leur travail pour créer de nouvelles technologies sans leur consentement et sans compensation. Les entreprises forment une grande variété de systèmes de cette manière, y compris des générateurs d’art, des systèmes de reconnaissance vocale comme Siri et Alexa, et même des voitures sans conducteur.

Copilot est basé sur une technologie développée par OpenAI, un laboratoire d’intelligence artificielle à San Francisco soutenu par un financement d’un milliard de dollars de Microsoft. OpenAI est à l’avant-garde de l’effort de plus en plus répandu pour former les technologies d’intelligence artificielle à l’aide de données numériques.

Après que Microsoft et GitHub aient publié Copilot, le directeur général de GitHub, Nat Friedman, tweeté que l’utilisation du code existant pour former le système était une “utilisation équitable” du matériel en vertu de la loi sur le droit d’auteur, un argument souvent utilisé par les entreprises et les chercheurs qui ont construit ces systèmes. Mais aucune affaire judiciaire n’a encore testé cet argument.

“Les ambitions de Microsoft et d’OpenAI vont bien au-delà de GitHub et Copilot”, a déclaré M. Butterick a déclaré dans une interview. “Ils veulent s’entraîner sur n’importe quelle donnée n’importe où, gratuitement, sans consentement, pour toujours.”

En 2020, OpenAI a dévoilé un système appelé GPT-3. Les chercheurs ont formé le système en utilisant d’énormes quantités de texte numérique, y compris des milliers de livres, des articles de Wikipédia, des journaux de discussion et d’autres données publiées sur Internet.

En identifiant des modèles dans tout ce texte, ce système a appris à prédire le mot suivant dans une séquence. Lorsque quelqu’un tapait quelques mots dans ce “grand modèle de langage”, il pouvait compléter la pensée avec des paragraphes entiers de texte. De cette façon, le système pourrait écrire ses propres publications, discours, poèmes et articles de presse sur Twitter.

À la grande surprise des chercheurs qui ont construit le système, il pourrait même écrire des programmes informatiques, ayant apparemment appris d’un nombre incalculable de programmes publiés sur Internet.

OpenAI est donc allé plus loin en formant un nouveau système, Codex, sur une nouvelle collection de données stockées spécifiquement avec du code. Au moins une partie de ce code, a déclaré le laboratoire plus tard dans un document de recherche détaillant la technologie, provenait de GitHub, un service de programmation populaire détenu et exploité par Microsoft.

Ce nouveau système est devenu la technologie sous-jacente de Copilot, que Microsoft a distribué aux programmeurs via GitHub. Après avoir été testé avec un nombre relativement restreint de programmeurs pendant environ un an, Copilot a été déployé auprès de tous les codeurs sur GitHub en juillet.

Pour l’instant, le code produit par Copilot est simple et pourrait être utile à un projet plus vaste, mais doit être massé, augmenté et vérifié, ont déclaré de nombreux programmeurs qui ont utilisé la technologie. Certains programmeurs ne le trouvent utile que s’ils apprennent à coder ou essaient de maîtriser un nouveau langage.

Pourtant, M. Butterick craignait que Copilot ne finisse par détruire la communauté mondiale des programmeurs qui ont construit le code au cœur de la plupart des technologies modernes. Quelques jours après la sortie du système, il a publié un article de blog intitulé : “Ce copilote est stupide et veut me tuer”.

M. Butterick s’identifie comme un programmeur open source, faisant partie de la communauté des programmeurs qui partagent ouvertement leur code avec le monde. Au cours des 30 dernières années, les logiciels open source ont contribué à l’essor de la plupart des technologies que les consommateurs utilisent chaque jour, notamment les navigateurs Web, les smartphones et les applications mobiles.

Bien que les logiciels open source soient conçus pour être partagés librement entre les codeurs et les entreprises, ce partage est régi par des licences conçues pour garantir qu’il est utilisé de manière à bénéficier à la communauté élargie des programmeurs. M. Butterick pense que Copilot a violé ces licences et, au fur et à mesure de son amélioration, rendra les codeurs open source obsolètes.

Après s’être plaint publiquement de la question pendant plusieurs mois, il a déposé sa plainte auprès d’une poignée d’autres avocats. La poursuite en est encore à ses débuts et n’a pas encore obtenu le statut de recours collectif par le tribunal.

À la surprise de nombreux juristes, M. La poursuite de Butterick n’accuse pas Microsoft, GitHub et OpenAI de violation du droit d’auteur. Sa poursuite prend une tournure différente, arguant que les entreprises ont violé les conditions d’utilisation et les politiques de confidentialité de GitHub tout en enfreignant une loi fédérale qui oblige les entreprises à afficher le droit d’auteur lorsqu’elles utilisent du matériel.

M. Butterick et un autre avocat à l’origine de la poursuite, Joe Saveri, ont déclaré que la poursuite pourrait éventuellement résoudre le problème du droit d’auteur.

Lorsqu’on lui a demandé si l’entreprise pouvait discuter de la poursuite, un porte-parole de GitHub a refusé, avant de dire dans un communiqué envoyé par e-mail que l’entreprise s’était “engagée à innover de manière responsable avec Copilot depuis le début, et continuera à faire évoluer le produit pour mieux servir les développeurs à travers le monde”. .” .” Microsoft et OpenAI ont refusé de commenter le procès.

En vertu des lois existantes, la plupart des experts estiment que la formation d’un système d’IA sur du matériel protégé par le droit d’auteur n’est pas nécessairement illégale. Mais cela pourrait être le cas si le système finit par créer du matériel sensiblement similaire aux données sur lesquelles il a été formé.

Certains utilisateurs de Copilot ont a dit il génère du code qui semble identique – ou presque identique – aux programmes existants, une observation qui pourrait devenir la partie centrale de Mr. Le cas de Butterick et d’autres.

Pam Samuelson, professeur à l’Université de Californie à Berkeley, spécialisée dans la propriété intellectuelle et son rôle dans la technologie moderne, a déclaré que les penseurs juridiques et les régulateurs avaient brièvement exploré ces questions juridiques dans les années 1980, avant que la technologie n’existe. Maintenant, dit-elle, une évaluation juridique est nécessaire.

“Ce n’est plus un problème de jouet”, a déclaré le Dr. dit Samuelson.

Leave a Comment

Your email address will not be published. Required fields are marked *