
Microsoft está sacando tajada de su inversión en la Inteligencia Artificial y está utilizándola en todos sus servicios. La última incorporación ha sido Security Copilot, una herramienta que ayudará a los profesionales en ciberseguridad a identificar infracciones, señales de amenaza y analizar mejor los datos.
Para ello, el sistema utilizará el último modelo de Inteligencia Artificial (IA) generativa GPT-4 de OpenAI, que se presentó hace poco y que ya está siendo utilizado en su nuevo buscador Bing.
Esta herramienta permitirá a los analistas de seguridad realizar tareas sencillas como resumir incidentes, analizar vulnerabilidades y compartir información con compañeros de trabajo en un tablón de anuncios.
El nuevo asistente utilizará el modelo específico de seguridad de Microsoft, que la compañía ha descrito en un comunicado como “un conjunto creciente de habilidades específicas de seguridad” que se alimenta con más de 65 billones de señales todos los días.
Microsoft sigue así integrando la Inteligencia Artificial en sus ofertas más populares, aprovechando el tirón que está teniendo esta nueva tecnología que incluso ha provocado sospechas y advertencias de una gran cantidad de expertos, entre ellos Elon Musk, para que el desarrollo de la misma se deje en pausa durante unos seis meses.
Microsoft ha argumentado que Security Copilot mejora con los modelos de IA generativa de OpenAI, especialmente con el GPT-4 de generación de texto lanzado recientemente.
El vicepresidente ejecutivo de Microsoft Security, Charlie Bell, ha indicado en dicho comunicado que “avanzar en el estado de la seguridad requiere tanto de personas como de tecnología: el ingenio humano combinado con las herramientas más avanzadas que ayuden a aplicar la experiencia humana a velocidad y escala”.
Asimismo, Bell ha señalado que “con Security Copilot estamos construyendo un futuro en el que todos los defensores cuentan con las herramientas y tecnologías necesarias para hacer del mundo un lugar más seguro”.
Este modelo personalizado ayuda a “captar lo que otros enfoques podrían pasar por alto”, ha indicado Microsoft, sobre todo al responder a preguntas relacionadas con la seguridad, asesorar sobre el mejor curso de acción y resumir eventos y procesos.
Ahora bien, Microsoft ha admitido que “el contenido generado por IA puede contener errores”, pero ha añadido que “a medida que continuamos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas más coherentes, relevantes y útiles”.