3. Comprender el alcance completo de los riesgos

Considere cómo el riesgo de IA podría manifestarse en su negocio. ¿Cómo detectaría un resultado injusto que no es manifiesto?

Puede excluir el género de un conjunto de datos utilizado por un modelo de IA, por ejemplo, y luego marcar la casilla «hecho», creyendo que se ha eliminado el riesgo de sesgo de género. Pero, ¿puede el modelo acceder al nombre de pila? ¿Alguien consideró que podría usar el nombre de pila como indicador de género?

También hay que considerar el riesgo «en cascada». Cada vez es más común que los modelos de IA se encadenen en una secuencia, donde la salida de un modelo se united states como entrada de otro. Podría, por ejemplo, utilizar un modelo que produzca resultados considerados precisos el 97 por ciento de las veces, aceptando la tasa de mistake del 3 por ciento. Pero, ¿qué sucede cuando se encadenan varios modelos con tolerancias similares? La cascada de errores puede sumarse rápidamente, especialmente si el primer modelo de la secuencia hace que la pelota empiece a rodar apuntando a los modelos subsiguientes en la dirección equivocada.

Entonces, ¿qué deben hacer los líderes organizacionales?

«A medida que las organizaciones continúan encontrando, adoptando y escalando nuevos casos de uso impulsados ​​por inteligencia synthetic (incluida la IA generativa), la necesidad de confianza en los resultados es primordial. Esto se puede lograr mediante la adopción de un marco de «IA responsable» para impulsar una mayor gobernanza», dice Martin Sokalski, director de KPMG en Chicago que ejerce en KPMG Lighthouse, que ofrece una variedad de capacidades tecnológicas avanzadas que impulsan la optimización y el crecimiento sostenido de las organizaciones.

La IA responsable se centra en aplicar los controles correctos en el momento adecuado para facilitar la innovación de la IA y una mejora en la postura de manage:

  • Controles apropiados para la etapa del ciclo de vida de la IA: implementa la tecnología, el uso de datos, la privacidad y los puntos de control de riesgo del modelo cuando el modelo ha alcanzado la etapa adecuada de desarrollo.
  • Controles proporcionales al riesgo: existe un mayor riesgo de que los modelos se promuevan a la producción que los modelos en desarrollo, por lo que los controles se desplazan más cerca de la producción. Además, los controles deben ser acordes con el riesgo inherente de lo que se está construyendo y los datos utilizados.
  • Flujo de trabajo automatizado: mantiene y mejora la postura de handle a través del flujo de trabajo automatizado para aplicar formas de trabajo y puntos de management coherentes.
  • Zona segura para el desarrollo: Un ambiente controlado con fuentes de datos de calidad validada para el uso aprobado de modelado.
  • Cultivar la experimentación: permite un acceso sin inconvenientes a entornos de capacitación y datos para casos de uso preaprobados para facilitar la capacitación del modelo (configuración de entornos, incorporación y acceso a datos). A medida que pasa del descubrimiento a la entrega en la experimentación, permita que se apliquen pasos de proceso adicionales, incluido el acceso al registro y las notificaciones de uso.
  • Supervisión y medición posterior a la implementación: mantiene la visibilidad del inventario del modelo, los cambios del modelo y las funciones, el rendimiento del modelo a lo largo del tiempo y los metadatos del modelo y las funciones a través de un sólido conjunto de métricas y etiquetado de modelos que se miden.

Al implementar un programa sólido y responsable de IA, puede reconocer y administrar los riesgos relacionados con su IA y los modelos de análisis predictivo con el mismo peso que le da a otros riesgos corporativos.

Share.
Leave A Reply