Accueil Intelligence artificielle L’IA devrait être mieux comprise et gérée – prévient une nouvelle étude

L’IA devrait être mieux comprise et gérée – prévient une nouvelle étude

0
L’IA devrait être mieux comprise et gérée – prévient une nouvelle étude


L’intelligence artificielle (IA) et les algorithmes peuvent être utilisés et sont utilisés pour radicaliser, polariser et propager le racisme et l’instabilité politique, explique un universitaire de l’Université de Lancaster.

Joe Burton, professeur de sécurité internationale à l’Université de Lancaster, affirme que l’IA et les algorithmes ne sont pas seulement des outils déployés par les agences de sécurité nationale pour prévenir les activités malveillantes en ligne, mais qu’ils peuvent également contribuer à la polarisation, au radicalisme et à la violence politique, ce qui constitue une menace pour la sécurité nationale.

En outre, dit-il, les processus de sécurisation (présentant la technologie comme une menace existentielle) ont joué un rôle déterminant dans la manière dont l’IA a été conçue, utilisée et dans les résultats néfastes qu’elle a générés.

L’article du professeur Burton « L’extrémisme algorithmique ? La sécurisation de l’intelligence artificielle (IA) et son impact sur le radicalisme, la polarisation et la violence politique’ est publié dans la revue à fort impact d’Elsevier La technologie dans la société Journal.

« L’IA est souvent présentée comme un outil destiné à lutter contre l’extrémisme violent », explique le professeur Burton. « Voici l’autre côté du débat. »

L’article examine comment l’IA a été sécurisée tout au long de son histoire, ainsi que dans les représentations médiatiques et de la culture populaire, et en explorant des exemples modernes d’IA ayant des effets polarisants et radicalisants qui ont contribué à la violence politique.

L’article cite la série de films classiques, The Terminator, qui dépeint un holocauste commis par une intelligence artificielle « sophistiquée et maligne », comme faisant plus que tout pour encadrer la prise de conscience populaire de l’intelligence artificielle et la crainte que la conscience machine puisse entraîner des conséquences dévastatrices pour l’humanité — dans ce cas, une guerre nucléaire et une tentative délibérée d’exterminer une espèce.

« Ce manque de confiance dans les machines, les peurs qui leur sont associées et leur association avec des menaces biologiques, nucléaires et génétiques pour l’humanité ont contribué au désir des gouvernements et des agences de sécurité nationale d’influencer le développement de la technologie, d’atténuer risque et (dans certains cas) d’exploiter son potentiel positif », écrit le professeur Burton.

Selon le professeur Burton, les drones sophistiqués, tels que ceux utilisés dans la guerre en Ukraine, sont désormais capables d’une autonomie totale, y compris de fonctions telles que l’identification et la reconnaissance de cibles.

Et, bien qu’il y ait eu un vaste et influent débat de campagne, y compris à l’ONU, pour interdire les « robots tueurs » et tenir l’humain au courant lorsqu’il s’agit de prendre des décisions de vie ou de mort, l’accélération et l’intégration dans Les drones armés se sont, dit-il, poursuivis à un rythme soutenu.

Dans le domaine de la cybersécurité – la sécurité des ordinateurs et des réseaux informatiques – l’IA est largement utilisée, le domaine le plus répandu étant la (dés)information et la guerre psychologique en ligne.

Les actions du gouvernement Poutine contre les processus électoraux américains en 2016 et le scandale Cambridge Analytica qui a suivi ont montré le potentiel de l’IA à être combinée avec le big data (y compris les médias sociaux) pour créer des effets politiques centrés sur la polarisation, l’encouragement des croyances radicales et la manipulation des groupes identitaires. . Cela a démontré le pouvoir et le potentiel de l’IA pour diviser les sociétés.

Et pendant la pandémie, l’IA a été considérée comme un outil positif pour suivre et tracer le virus, mais elle a également suscité des inquiétudes concernant la vie privée et les droits de l’homme.

L’article examine la technologie de l’IA elle-même, en faisant valoir que des problèmes existent dans la conception de l’IA, les données sur lesquelles elle s’appuie, la manière dont elle est utilisée, ainsi que ses résultats et impacts.

Le document se termine par un message fort adressé aux chercheurs travaillant dans le domaine de la cybersécurité et des relations internationales.

« L’IA est certainement capable de transformer les sociétés de manière positive, mais présente également des risques qui doivent être mieux compris et gérés », écrit le professeur Burton, expert en cyberconflits et technologies émergentes et qui fait partie de l’initiative Science de sécurité et de protection de l’université.

« Comprendre les effets de division de la technologie à toutes les étapes de son développement et de son utilisation est clairement vital.

« Les chercheurs travaillant dans le domaine de la cybersécurité et des relations internationales ont la possibilité d’intégrer ces facteurs dans le programme de recherche émergent sur l’IA et d’éviter de traiter l’IA comme une technologie politiquement neutre.

« En d’autres termes, la sécurité des systèmes d’IA et la manière dont ils sont utilisés dans les luttes géopolitiques internationales ne devraient pas l’emporter sur les préoccupations concernant leurs effets sociaux. »

En tant que l’une des rares universités dont l’enseignement, la recherche et la formation sont reconnues par le National Cyber ​​Security Centre (NCSC) du Royaume-Uni, qui fait partie du GCHQ, Lancaster investit massivement dans la prochaine génération de leaders en matière de cybersécurité. En plus de renforcer le vivier de compétences et de talents dans la région en s’appuyant sur son master certifié NCSC avec un nouveau diplôme de premier cycle en cybersécurité, l’entreprise a lancé un Cyber ​​Executive Masters innovateur en éducation commerciale.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici