Le MIT dit A.I. Pas encore assez intelligent à la cybersécurité, il faut toujours des humains

$config[ads_kvadrat] not found

The Brachistochrone, with Steven Strogatz

The Brachistochrone, with Steven Strogatz
Anonim

Le Massachusetts Institute of Technology a de bonnes nouvelles si vous êtes dans le secteur de la sécurité: A.I. les robots pourraient ne pas prenez votre travail.

Des chercheurs du Laboratoire d'informatique et d'intelligence artificielle du MIT (CSAIL) ont publié un article la semaine dernière dans lequel il décrit un système de cybersécurité amélioré appelé «A.I.²». passer au peigne fin d'énormes quantités de données et aux analystes humains de donner leur avis.

I.I.² combine les deux types de systèmes de cybersécurité actuellement utilisés: dirigé par un analyste (personnes tentant d'identifier et de réagir aux attaques) et dirigé par un apprentissage automatique non supervisé (A.I. utilisant des modèles pour prédire et détecter des attaques). Les deux systèmes ont leurs inconvénients. Les humains ont tendance à manquer beaucoup de cyberattaques à cause de données accablantes, et A.I. a tendance à émettre beaucoup de fausses alarmes car les modèles ne sont pas toujours prédictifs.

Combiner la force humaine pour identifier les véritables menaces et la force de I.I. dans le traitement de grandes quantités de données permet de renforcer le système de sécurité. De plus, les humains conservent leurs emplois en cybersécurité.

Revenir au travail humain peut sembler être quelque chose que les chercheurs d'un laboratoire d'intelligence artificielle tentent d'empêcher. Mais les chercheurs du MIT affirment qu’en utilisant des personnes et A.I. ensemble, on obtient un taux de détections de 86,8% - 10 fois meilleur que le solo-A.I. taux de 7,9 pour cent - et est-ce moins cher de démarrer.

A.I.² est composé de quatre composants. Tout d'abord, un ordinateur collecte des données volumineuses. Les données sont traitées et les valeurs aberrantes sont extraites à l'aide d'AI déjà existant. La technologie. Ensuite, le A.I. extrait tout ce qui pourrait être «malveillant» et l'envoie à un analyste humain. Enfin, l'analyste envoie un retour d'information à l'AI, qui tire des informations et parvient à mieux déchiffrer si une attaque est malveillante ou normale.

Un ensemble de données du monde réel de 3,6 milliards de lignes de journal a vérifié qu'AI. et les humains se comportaient mieux en équipe qu'en tant qu'entités séparées.

Globalement, A.I.² sonne plutôt comme une étape intermédiaire entre le développement de la technologie et une autonomie complète. Le A.I. finiront par apprendre suffisamment de leurs collègues humains pour que l'étudiant devienne le maître. Mais jusqu'à ce que l'apprentissage en profondeur fasse A.I. Le document de recherche prédit que les analystes de la cybersécurité peuvent améliorer considérablement la sécurité d'emploi.

$config[ads_kvadrat] not found