L'avance rapide d'AI devrait faire peur si vous payez l'attention

$config[ads_kvadrat] not found

Satisfying Video l Kinetic Sand Nail Polish Foot Cutting ASMR #7 Rainbow ToyTocToc

Satisfying Video l Kinetic Sand Nail Polish Foot Cutting ASMR #7 Rainbow ToyTocToc
Anonim

Lorsqu'il s'agit d'identifier les menaces existentielles posées par les innovations technologiques, l'imagination populaire invoque des visions de Terminateur, La matrice, et Je robot - les dystopies gouvernées par les seigneurs robots qui exploitent et exterminent les gens en masse. Dans ces futurs spéculatifs, une combinaison de super-intelligence et de mauvaises intentions amène les ordinateurs à anéantir ou à asservir la race humaine.

Cependant, une nouvelle étude suggère qu'il s'agira des applications banales d'AI. cela aura des conséquences sociales graves au cours des prochaines années. Le rapport - "Utilisation malveillante de l'intelligence artificielle" - rédigé par 26 chercheurs et scientifiques d'universités d'élite et de groupes de réflexion axés sur les technologies, décrit les moyens utilisés actuellement par A.I. les technologies menacent notre sécurité physique, numérique et politique. Pour orienter son étude, le groupe de recherche n'a examiné que les technologies existantes ou susceptibles de l'être dans les cinq prochaines années.

Ce que l'étude a trouvé: A.I. Les systèmes vont probablement étendre les menaces existantes, en introduire de nouvelles et en changer le caractère. La thèse du rapport est que les progrès technologiques rendront certains méfaits plus faciles et plus utiles. Les chercheurs affirment que les améliorations de l'I.A. diminuera la quantité de ressources et d’expertise nécessaires pour mener à bien certaines cyberattaques, en réduisant efficacement les obstacles à la criminalité:

Le coût des attaques peut être réduit par l'utilisation évolutive des systèmes d'IA pour effectuer des tâches qui nécessiteraient normalement du travail, de l'intelligence et de l'expertise. Un effet naturel serait d’élargir le nombre d’acteurs pouvant mener des attaques particulières, la vitesse à laquelle ils peuvent mener ces attaques et l’ensemble des cibles potentielles.

Le rapport fait quatre recommandations:

1 - Les décideurs devraient collaborer étroitement avec les chercheurs techniques pour étudier, prévenir et limiter les utilisations malveillantes potentielles de l'IA.

2 - Les chercheurs et les ingénieurs en intelligence artificielle doivent prendre au sérieux la nature à double usage de leur travail, en permettant à des considérations liées à une utilisation abusive d'influencer les priorités et les normes de recherche et en s'adressant de manière proactive aux acteurs concernés lorsque des applications nuisibles sont prévisibles.

3 - Les meilleures pratiques devraient être identifiées dans les domaines de recherche dotés de méthodes plus matures pour traiter les problèmes de double usage, tels que la sécurité informatique, et importées, le cas échéant, dans le cas de l'IA.

4 - Chercher activement à élargir l'éventail des parties prenantes et des experts du domaine impliqués dans les discussions sur ces défis

Comment A.I. peut rendre les arnaques actuelles plus intelligentes: Par exemple, les attaques par hameçonnage, dans lesquelles des escrocs se font passer pour un ami, un membre de la famille ou un collègue de la cible afin de gagner la confiance et d’extraire des informations et de l’argent, constituent déjà une menace. Mais aujourd’hui, ils nécessitent une dépense considérable en temps, en énergie et en expertise. Comme A.I. Les systèmes étant de plus en plus sophistiqués, une partie de l'activité requise pour une attaque par harponnage, telle que la collecte d'informations sur une cible, peut être automatisée. Un phisher pourrait alors investir beaucoup moins d'énergie dans chaque griffe et cibler plus de personnes.

Et si les fraudeurs commencent à intégrer A.I. en ligne, il peut devenir impossible de distinguer la réalité de la simulation. "A mesure que l'intelligence artificielle se développe, les chatbots convaincants peuvent susciter la confiance de l'homme en engageant les gens dans des dialogues plus longs, et éventuellement éventuellement se faire passer pour une autre personne dans un chat vidéo", indique le rapport.

Nous avons déjà vu les conséquences de la vidéo générée par machine sous la forme de Deepfakes. Au fur et à mesure que ces technologies deviennent plus accessibles et plus conviviales, les chercheurs craignent que de mauvais acteurs ne diffusent des photos, des vidéos et des fichiers audio fabriqués. Cela pourrait aboutir à des campagnes de diffamation extrêmement réussies ayant des ramifications politiques.

Au-delà du clavier: Et les méfaits potentiels ne se limitent pas à Internet. Alors que nous nous dirigeons vers l’adoption de véhicules autonomes, les pirates informatiques pourraient déployer des exemples contradictoires pour persuader les voitures autonomes de mal percevoir leur environnement. "Une image d'un panneau d'arrêt avec quelques pixels modifiés de manière spécifique, que les humains reconnaîtront facilement comme étant encore une image d'un panneau d'arrêt, pourrait néanmoins être classée à tort comme quelque chose de complètement différent par un système d'IA", indique le rapport.

Parmi les autres menaces, citons les drones autonomes dotés d'un logiciel de reconnaissance faciale intégré à des fins de ciblage, les attaques DOS coordonnées qui imitent le comportement humain et les campagnes de désinformation automatisées et hyper personnalisées.

Le rapport recommande aux chercheurs d’envisager des applications malveillantes potentielles d’A.I. tout en développant ces technologies. Si des mesures de défense adéquates ne sont pas mises en place, nous disposerons peut-être déjà de la technologie pour détruire l’humanité, aucun robot tueur n’est nécessaire.

$config[ads_kvadrat] not found