Ciberseguridad: Envenenamiento vía inteligencia artificial ¿De qué trata?

By: Luis Tarazona
Abr.28, 2022
0

En los últimos años, se ha utilizado la inteligencia artificial para reconocer rostros, calificar la solvencia crediticia y pronosticar el clima. Sin embargo, también se han intensificado los hackeos cada vez más sofisticados que utilizan métodos más sigilosos.

La combinación entre la IA y la ciberseguridad era inevitable ya que ambos campos buscaban mejores herramientas y nuevos usos para su tecnología. Pero hay un problema masivo que amenaza con socavar estos esfuerzos y que podría permitir que los adversarios eludan las defensas digitales sin ser detectados.

Se trataría del peligro es el envenenamiento de datos: la manipulación de la información utilizada para entrenar máquinas presenta un método prácticamente imposible de rastrear para sortear las defensas impulsadas por IA.

De eta manera, es posible que muchas empresas no estén preparadas para enfrentar desafíos cada vez mayores. Ya se proyecta que el mercado global de ciberseguridad de IA se triplicará para el 2028, a US$ 35,000 millones. Es posible que los proveedores de seguridad y sus clientes tengan que combinar varias estrategias para mantener a raya las amenazas.

La naturaleza misma del aprendizaje automático, un subconjunto de la IA, es lo que el envenenamiento de datos tiene en la mira. Los computadores pueden ser entrenados para categorizar correctamente la información de enormes cantidades de datos que se les presente. Es posible que un sistema no haya visto una imagen de Lassie, pero si se le dan suficientes ejemplos de diferentes animales que estén correctamente etiquetados por especie (e incluso por raza), debería poder suponer que es un perro.

Ese mismo enfoque se utiliza en ciberseguridad. Para detectar software malicioso, las empresas alimentan sus sistemas con datos y dejan que la máquina aprenda por sí misma. Los computadores que han recibido numerosos ejemplos de código bueno y malo pueden aprender a buscar software malicioso (o incluso fragmentos de software) y detectarlo.

Una técnica avanzada llamada redes neuronales, que imita la estructura y los procesos del cerebro humano, se ejecuta a través de datos de entrenamiento y realiza ajustes basados en información nueva y conocida. Tal red no necesita haber visto una pieza específica de código malicioso para suponer que es mala. Ha aprendido por sí misma y puede detectar adecuadamente el bien y el mal.

Para mantener su seguridad, las empresas deben asegurarse de que sus datos estén limpios, pero eso significa entrenar sus sistemas con menos ejemplos de los que obtendrían con las ofertas de código abierto. En el aprendizaje automático, el tamaño de la muestra importa.

Este juego del gato y el ratón entre los atacantes y los protectores viene sucediendo durante décadas, y la IA es simplemente la herramienta implementada más recientemente para ayudar al lado bueno a mantener la delantera. Recuerde: la inteligencia artificial no es omnipotente. Los hackers siempre están buscando su próxima hazaña.


Social Media Auto Publish Powered By : XYZScripts.com