DEV Community

Cover image for GenAI Series: Protegiendo tus modelos de IA
Guillermo Ruiz for AWS Español

Posted on • Edited on

GenAI Series: Protegiendo tus modelos de IA

Hace un par de días, dos de nuestros Distinguished Engineers, Anthony Liguori y Colm MacCarthaigh publicaron un artículo donde presentaban su enfoque seguro ara la IA generativa.

Este enfoque se divide en tres capas: infraestructura, acceso a modelos y aplicaciones. A continuación os presentamos un resumen en español:

Un enfoque seguro para la inteligencia artificial generativa con AWS

La inteligencia artificial generativa (GenAI) está transformando las industrias de todo el mundo. Los clientes están construyendo aplicaciones de IA generativa utilizando modelos grandes de lenguaje (LLM) y otros modelos fundacionales (FM) para mejorar la experiencia del cliente, optimizar operaciones y abrir nuevas fuentes de ingresos.

A lo largo del artículo se destaca la preocupación de los clientes por la seguridad de sus datos sensibles y las inversiones en IA, lo que lleva a la necesidad de protegerlos contra accesos no autorizados, incluso por parte de los proveedores de servicios en la nube.

En respuesta, AWS presenta su enfoque seguro para la IA generativa, dividido en tres capas: infraestructura, acceso a modelos y aplicaciones.

- Infraestructura - Proporciona las herramientas para construir y entrenar LLM y otros FM.

- Acceso a Modelos - Proporciona acceso a todos los modelos junto con las herramientas que necesita para construir y escalar aplicaciones de IA generativa.

- Aplicaciones - Incluye aplicaciones que utilizan LLM y otros FM para hacer que el trabajo sea libre de estrés escribiendo y depurando código, generando contenido, derivando ideas y tomando acción.

GenAI Stack

Con el Sistema Nitro de AWS, ofrecemos aislamiento completo y protección de datos en las instancias de Amazon EC2 desde 2017, asegurando que ni los operadores de AWS ni otros clientes puedan acceder a tus cargas de trabajo o a los datos que envíes a un acelerador de aprendizaje automático (ML) o GPU. Esta protección se aplica a todas las instancias basadas en Nitro, incluidas las instancias con aceleradores de ML como AWS Inferentia y AWS Trainium, y las instancias con GPUs como P4, P5, G5 y G6.

El Sistema Nitro permite al Adaptador Elastic Fabric (EFA), aprovechar el protocolo de comunicación Scalable Reliable Datagram (SRD) creado por AWS para el entrenamiento distribuido a gran escala en la nube. Esta implementación permite el acceso directo a la memoria remota (RDMA) a través de una red siempre cifrada. La comunicación a través de EFA se encuentra encriptada con el cifrado de VPC, garantizando la seguridad de los datos sin afectar el rendimiento.

NitroSystem

El diseño del Sistema Nitro ha sido validado por NCC Group, una firma independiente de ciberseguridad. AWS ofrece un alto nivel de protección para las cargas de trabajo de los clientes, y creemos que este es el nivel de seguridad y confidencialidad que los clientes deberían esperar de su proveedor de servicios en la nube. Este nivel de protección es tan crítico que lo hemos agregado en nuestros Términos de Servicio de AWS para proporcionar una garantía adicional a todos nuestros clientes.

Mejorando la seguridad en cargas de trabajo de IA Generativa con las mejore prácticas de seguridad de AWS

Desde el principio, la infraestructura y los servicios de IA de AWS han integrado funcionalidades de seguridad y privacidad para ofrecer control sobre los datos. A medida que los clientes adoptan la IA generativa, es importante que sus datos se manejen de forma segura en todas las etapas del ciclo de vida de la IA, incluyendo la preparación, el entrenamiento y la inferencia.

GenAI LifeCycle

En el contexto del aprendizaje automático, los modelos de IA aprenden a partir de datos durante el proceso de entrenamiento. Durante este proceso, el modelo ajusta sus parámetros o pesos para minimizar el error en las predicciones.

Estos pesos del modelo son fundamentales, ya que determinan cómo el modelo interpreta y responde a los datos de entrada. Si los pesos del modelo se ven comprometidos o manipulados de alguna manera, podría afectar negativamente la capacidad del modelo para hacer predicciones precisas o confiables. Es por ello que garantizar la seguridad de estos pesos del modelo es CRÍTICO para proteger la integridad del modelo en sí mismo.

En AWS, asegurar la infraestructura de IA implica que ningún usuario no autorizado, ni siquiera el operador de infraestructura, pueda acceder a los datos sensibles de IA. Esto se basa en tres principios clave:

1. aislar completamente los datos de IA del operador de infraestructura,
2. permitir a los clientes aislar sus propios datos y
3. garantizar comunicaciones seguras entre dispositivos de infraestructura de aceleración de ML.

La arquitectura Nitro cumple con el primer principio al aislar los datos de IA de los operadores.

Nitro

Para el segundo principio ofrecemos una solución integrada entre AWS Nitro Enclaves y AWS Key Management Service (KMS) para encriptar y transferir datos de manera segura. Puedes encriptarlos usando claves que solo tú posees y controlas, almacenar esos datos en una ubicación de tu elección y transferir los datos encriptados a un entorno de cómputo aislado para inferencia. Esto garantiza que los datos estén protegidos y aislados de los usuarios y software del cliente, teniendo su aplicación práctica en casos como la inferencia de LLM en un enclave. Sin embargo, hasta el momento, los Enclaves de Nitro solo operan en la CPU, lo que limita el potencial para modelos de IA más grandes y procesamiento más complejo.

NitroEnclave-KMS

Para solventar esto, hemos anunciado planes para extender este flujo de Nitro encriptado de extremo a extremo para incluir una integración con aceleradores de ML y GPUs, cumpliendo con el tercer principio. Podrás descifrar y cargar datos de IA sensibles en un acelerador de ML para procesamiento mientras garantizas que la aplicación utilizada para procesar los datos de IA esté autenticada.

A través de Nitro, puedes validar criptográficamente tus aplicaciones ante AWS KMS y descifrar datos solo cuando pasen los controles necesarios. Esta mejora nos permite ofrecer cifrado de extremo a extremo para tus datos a medida que fluyen a través de cargas de trabajo de IA generativa.

¿Cuándo podré tener esto disponible?

Se espera tenerlo disponible en las próximas Trainium2, así como en instancias de GPU basadas en Blackwell de NVIDIA, que ofrecen comunicaciones seguras entre dispositivos, el tercer principio de Infraestructura de IA segura. AWS y NVIDIA están colaborando para llevar una solución conjunta al mercado, que incluye la nueva plataforma de GPU NVIDIA Blackwell, que acopla la solución NVL72 GB200 de NVIDIA con Nitro y las tecnologías EFA para proporcionar una solución que permita la construcción y implementación seguras de la siguiente generación de aplicaciones IA.

Avanzando en el futuro de la seguridad de la IA generativa

En AWS, continuamos con la innovación mientras invertimos en el desarrollo de funcionalidades que sean eficientes y accesibles para que sea práctico asegurar tus cargas de trabajo en las tres capas del stack de IA generativa, y así dejar que puedas concentrarte en lo que mejor sabes hacer: desarrollar y extender los usos de la IA generativa a más áreas.

Hasta la próxima!

Top comments (0)