DEV Community

Cover image for Construyendo IA responsable con AWS
Brenda Galicia
Brenda Galicia

Posted on

Construyendo IA responsable con AWS

Desde hace unos años hablar sobre las novedades que nos trae la Inteligencia Artificial día a día, semana tras semana se nos ha vuelto cotidiano e incluso ya estamos acostumbrados a nuevos lanzamientos y mejoras siempre sin dejarnos de sorprender, pero en pocas ocasiones nos detenemos a preguntarnos el impacto social que pueden tener las diferentes aplicaciones de la IA en nuestros días, la forma en que interactuamos con el mundo está cambiando y en esta revolución tecnológica debemos garantizar que esta tecnología se desarrolló y se utilice de manera segura, confiable y ética, aquí es donde nace el concepto de IA responsable, un enfoque integral que considera las repercusiones sociales de la IA, que incluye equidad, transparencia, privacidad y seguridad.

La IA responsable nos trata de guiar a un progreso tecnológico duradero y sostenible incorporando principios desde el diseño hasta la implementación de nuestros sistemas inteligentes desbloqueando el potencial transformador de la IA sin dejar de lado los valores y principios que nos definen como sociedad.

Enlistaremos los principios o dimensiones fundamentales de la IA responsable:

  • Equidad: la discriminación algorítmica puede presentarse en soluciones de IA cuando estas se entrenan con datos sesgados o no representativos, lo que lleva a resultados injustos, por lo que es crucial seleccionar y analizar cuidadosamente los datos de entrenamiento garantizando la diversidad, la inclusión y la precisión, minimizando así el sesgo y la discriminación.
  • Explicabilidad: nos permite comprender la lógica detrás de las decisiones de nuestros modelos de IA, no hay cajas negras, debemos poder entender el paso a paso del sistema, aumentar la transparencia y la confianza sobre nuestra IA dando a los usuarios mayor detalle de los factores que influyen en los resultados finales.
  • Privacidad y seguridad: se deben implementar medidas robustas para proteger la información personal de los usuarios, evitando su exposición, robo o uso indebido. Debemos otorgar a los usuarios mayor control sobre sus datos, brindarles la transparencia sobre el uso de sus datos, herramientas para gestionarlo y limitar su uso.
  • Robustez: los sistemas deben poderse adaptar a nuevos entornos, detectar y corregir errores, manteniendo su rendimiento frente ataques o eventos de desastre, cualquier perturbación que pueda presentar el sistema. Se deben prevenir las fallas que pueda terminar en una consecuencia negativa para el sistema.
  • Gobernanza: nos establece un marco para el desarrollo, implementación y uso de la IA garantizando estar alineados con los valores y principios de la organización responsable de la solución. Nos ayudará a definir e implementar practicas dentro de la organización, promoviendo el uso ético y transparente de la tecnología.
  • Transparencia: es el elemento que permite a los usuarios y a todas las partes interesadas el poder comprender como funciona la IA, qué datos se utilizan y cómo se toman las decisiones, es poder comprender cómo funciona el algoritmo que existe por atrás. Este principio permite que los usuarios evalúen la confiabilidad, imparcialidad y seguridad de nuestro sistema de IA. Otra cosa es que nos permite detectar algún error o sesgo, dándonos la capacidad de poder tomar medidas correctivas y mejorar el rendimiento del sistema.

Estos principios que debemos trabajar de formar multidisciplinaria nos dejan avanzar a un futuro donde la IA se desarrolla y utiliza de manera responsable, beneficiando a toda la sociedad de forma justa y equitativa.

¿Por qué multidisciplinaria?
Es fundamental la colaboración de expertos en la tecnología, en política, en ética y otras áreas sociales, ya que esta diversidad de perspectivas va a ayudarnos a enriquecer el proceso de toma de decisiones y podrán asegurar que consideremos las implicaciones sociales, éticas e incluso legales de la IA garantizando la integridad de las aplicaciones de IA desde un inicio hasta su puesta en práctica en el mundo real.

Ahora sí, ¿cuáles son las herramientas o servicios que tienen AWS para construir IA responsable?

AWS tiene más de 200 servicios en general y de ahí tiene una amplia gama de servicios enfocados a IA, así que hablar de cada uno de ellos y como funcionan no será la misión de este blog, pero sí hablaré de un par de ellos para darnos cuenta y poder ejemplificar la mirada que AWS para la construcción IA responsable.

Amazon SageMaker Clarify

Nos permite obtener información valiosa de nuestros datos y modelos de aprendizaje automático mediante métricas de precisión, robustez, toxicidad y sesgo, mejorando así la calidad de nuestro modelo, respaldándonos en IA responsable.

Características:

  • Permite identificar potenciales sesgos durante la preparación de los datos, el entrenamiento e implementación del modelo, examinando atributos de entrada específicos y ejecutando un análisis para su detección.
  • Proporciona reportes visuales con las métricas y medidas de sesgo potencial para poder tomar medidas correctivas. También ofrece un gráfico de importancia de características agregadas que proporciona más información del modelo y el proceso de generación de resultados del mismo.
  • Brinda transparencia mediante la visibilidad del comportamiento del modelo, verificar si nuestro modelo funciona según lo previsto.
  • En general, es una herramienta eficaz para desarrollar modelos de aprendizaje automático que sean justos, confiables y transparentes.

Amazon Bedrock Guardrails

Amazon Bedrock es un servicio totalmente administrado que nos disponibiliza una gran selección de modelos fundacionales de alto rendimiento a través de una API brindándonos un amplio abanico de capacidades para crear soluciones de IA, cuenta con herramientas para poder evaluar y proteger los modelos antes de implementarlos mediante métricas personalizadas y evaluaciones automáticas a conjuntos de datos, pero además de eso y más tiene los salvaguardas (guardrails).

La implementación en Bedrock de salvaguardas nos permiten:

  • Estar alineados con las políticas de IA responsable.
  • Detectar de forma automática consultas que impliquen respuestas que entran en categorías restringidas de nuestro modelo, esto nos permite evitar temas específicos para el usuario.
  • Brinda una capa extra de protección al modelo fundacional subyacente a la solución, evaluando las entradas del usuario y las salidas del modelo en función de las políticas de nuestro caso de uso.

En resumen, nos ayuda a garantizar que los modelos se utilicen de manera responsable y segura mediante la detección y bloqueo de entradas de los usuarios y las respuestas del modelo que entran en temas restringidos, mejorando su rendimiento y comportamiento.

Esto es solo un primer vistazo de lo que AWS nos ofrece como herramientas para generar soluciones de IA responsable, pero si te interesa saber un poco más, te recomiendo revisar las AWS AI Service Cards. En estas cards AWS proporciona transparencia y documenta los casos de uso previstos junto con las consideraciones que se deben tener al desarrollar IA con AWS, son un lugar fascinante para encontrar diferentes opciones de diseño, mejores prácticas, evaluaciones de rendimiento, limitaciones y optimización para casos de uso de diversos servicios de IA de AWS.

La IA responsable nos brinda el potencial de crear un mundo más justo, equitativo y próspero para todos apoyándonos de la tecnología, permitiendo construir un futuro donde la tecnología no solo empodera, sino que también respeta y mejora la condición humana. Es nuestro deber como entusiastas y desarrolladores de IA aprovechar su poder de manera responsable, asegurando que su desarrollo y uso estén alineados con nuestros valores.

Top comments (0)