Accueil Robotique L’IA dans la C-Suite ? Pourquoi nous aurons besoin de nouvelles lois pour régir les agents d’IA en entreprise

L’IA dans la C-Suite ? Pourquoi nous aurons besoin de nouvelles lois pour régir les agents d’IA en entreprise

0
L’IA dans la C-Suite ?  Pourquoi nous aurons besoin de nouvelles lois pour régir les agents d’IA en entreprise


La perspective d’entreprises ou d’autres organisations dirigées par l’IA semble de plus en plus plausible. Les chercheurs affirment que nous devons mettre à jour nos lois et la manière dont nous formons l’IA pour tenir compte de cette éventualité.

Percées récentes dans les grands modèles de langage nous obligent à réimaginer quelles capacités sont purement humaines. Il y a un débat quant à savoir si ces algorithmes peuvent comprendre et raisonner de la même manière que les humains, mais dans un nombre croissant de tâches cognitives, ils peuvent atteindre des performances similaires, voire meilleures, que la plupart des humains.

Cela motive les efforts visant à intégrer ces nouvelles compétences dans toutes sortes de fonctions commerciales, de la rédaction de textes marketing à la synthèse de documents techniques ou même à l’assistance au support client. Et même s’il peut y avoir des limites fondamentales à la progression que l’IA peut gravir dans l’échelle de l’entreprise, assumer des rôles de direction ou même de direction devient un domaine du possible.

C’est pourquoi les experts juridiques en IA nous demandent maintenant d’adapter les lois étant donné la possibilité pour les entreprises gérées par l’IA et pour les développeurs de la technologie de modifier la façon dont ils entraînent l’IA pour rendre les algorithmes respectueux de la loi en premier lieu.

«Une singularité juridique est en marche», écrivent Daniel Gervais, professeur de droit à l’Université Vanderbilt, et John Nay, entrepreneur et membre du Stanford CodeX, dans un article. article dans Science. « Pour la première fois, des entités non humaines qui ne sont pas dirigées par des humains peuvent entrer dans le système juridique en tant que nouvelle « espèce » de sujets juridiques. »

Même si des entités non humaines comme les rivières ou les animaux se sont parfois vu accorder le statut de sujets de droit, écrivent les auteurs, l’un des principaux obstacles à leur pleine participation au droit est l’incapacité d’utiliser ou de comprendre le langage. Avec le dernier lot d’IA, cette barrière a déjà été franchie ou le sera bientôt, selon à qui vous demandez.

Cela ouvre la perspective, pour la première fois, d’entités non humaines interagissant directement avec la loi. En effet, les auteurs soulignent que les avocats utilisent déjà des outils basés sur l’IA pour les aider à faire leur travail, et recherche récente a montré que les LLM peuvent effectuer un large éventail de tâches de raisonnement juridique.

Et même si l’IA d’aujourd’hui est encore loin d’être capable de gérer une entreprise à elle seule, ils soulignent que dans certaines juridictions, il n’existe aucune règle exigeant qu’une entreprise soit supervisée par des humains, et l’idée d’une IA gérant les affaires d’une entreprise n’est pas acceptable. explicitement interdit par la loi.

Si une telle société d’IA devait voir le jour, la manière dont les tribunaux réagiraient n’est pas tout à fait claire. Les deux conséquences les plus courantes en cas de violation de la loi sont les sanctions financières et l’emprisonnement, qui ne se traduisent pas particulièrement bien par un logiciel désincarné.

Bien que l’interdiction des entreprises contrôlées par l’IA soit une possibilité, les auteurs affirment que cela nécessiterait une coordination législative internationale massive et pourrait étouffer l’innovation. Au lieu de cela, ils soutiennent que le système juridique devrait se pencher sur cette perspective et trouver la meilleure façon d’y faire face.

Une piste importante consisterait probablement à inciter l’IA à être plus respectueuse de la loi. Cela pourrait être accompli en formant un modèle pour prédire quelles actions sont conformes à des principes juridiques particuliers. Ce modèle pourrait ensuite enseigner à d’autres modèles, formés à des fins différentes, comment agir conformément à la loi.

La nature ambiguë de la loi, qui peut être très contextuelle et doit souvent être débattue devant les tribunaux, rend cette tâche difficile. Mais les auteurs préconisent des méthodes de formation qui imprègnent ce qu’ils appellent « l’esprit de la loi » dans les algorithmes plutôt que des règles plus formelles sur la manière de se comporter dans différentes situations.

Les régulateurs pourraient faire de ce type de formation pour les IA une obligation légale, et les autorités pourraient également développer leur propre IA conçue pour surveiller le comportement des autres modèles afin de garantir leur conformité à la loi.

Même si les chercheurs reconnaissent que certains pourraient se moquer de l’idée de permettre aux IA de contrôler directement les entreprises, ils soutiennent qu’il est préférable de les intégrer le plus tôt possible afin que nous puissions surmonter les défis potentiels.

« Si nous ne concluons pas de manière proactive Agents IA dans les entités juridiques qui doivent obéir au droit humain, nous perdons alors des avantages considérables liés au suivi de ce qu’elles font, à la façon dont elles le font et à la prévention des dommages », écrivent-ils.

Crédit d’image : Shawn Suttle / Pixabay

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici