Adoptar un enfoque de múltiples niveles para la gestión de riesgos y riesgos de modelos

¿Cuál es su plan de mitigación de riesgos de IA? Del mismo modo que no emprendería un viaje sin comprobar las carreteras, conocer su ruta y prepararse para posibles retrasos o contratiempos, necesita un plan de gestión de riesgos modelo para sus proyectos de aprendizaje automático. Un modelo bien diseñado combinado con una gobernanza de IA adecuada puede ayudar a minimizar los resultados no deseados, como el sesgo de IA. Con una combinación de las personas, los procesos y la tecnología adecuados, puede minimizar los riesgos asociados con sus proyectos de IA.

¿Existe tal cosa como la IA imparcial?

Una preocupación común con la IA cuando se habla de gobernanza es el sesgo. ¿Es posible tener un modelo de IA imparcial? La dura verdad es que no. Debe tener cuidado con cualquiera que le diga lo contrario. Si bien existen razones matemáticas por las que un modelo no puede ser imparcial, es igual de importante reconocer que factores como las necesidades comerciales en competencia también pueden contribuir al problema. Esta es la razón por la cual la buena gobernanza de la IA es tan importante.

imagen 7

Entonces, en lugar de buscar crear un modelo que sea imparcial, busque crear uno que sea justo y se comporte según lo previsto cuando se implemente. Un modelo justo es aquel en el que los resultados se miden junto con los aspectos sensibles de los datos (por ejemplo,, sexo, raza, edad, discapacidad y religión).

Validación de la equidad a lo largo del ciclo de vida de la IA

Un método de mitigación de riesgos es un enfoque triple para mitigar el riesgo entre múltiples dimensiones del ciclo de vida de la IA. El marco del queso suizo reconoce que ningún conjunto único de defensas garantizará la equidad mediante la eliminación de todos los peligros. Pero con múltiples líneas de defensa, las superposiciones son una poderosa forma de gestión de riesgos. Es un modelo probado que ha funcionado en la aviación y la atención médica durante décadas, pero aún es válido para su uso en plataformas empresariales de IA.

Marco de queso suizo

La primera parte se trata de involucrar a las personas adecuadas. Necesita tener personas que puedan identificar la necesidad, construir el modelo y monitorear su desempeño. Una diversidad de voces ayuda a que el modelo se alinee con los valores de una organización.

La segunda porción es tener procesos MLOps que permitan implementaciones repetibles. Los procesos estandarizados hacen posible el seguimiento de las actualizaciones del modelo, el mantenimiento de la precisión del modelo a través del aprendizaje continuo y el cumplimiento de los flujos de trabajo de aprobación. La aprobación del flujo de trabajo, el monitoreo, el aprendizaje continuo y el control de versiones son parte de un buen sistema.

La tercera porción es la tecnología MLDev que permite prácticas comunes, flujos de trabajo auditables, control de versiones y KPI de modelo consistentes. Necesita herramientas para evaluar el comportamiento del modelo y confirmar su integridad. Deben provenir de un conjunto limitado e interoperable de tecnologías para identificar riesgos, como la deuda técnica. Cuantos más componentes personalizados tenga en su entorno MLDev, más probable es que introduzca una complejidad innecesaria y consecuencias y sesgos no deseados.

El desafío de cumplir con las nuevas regulaciones

Y todas estas capas deben considerarse frente al panorama de la regulación. En los EE. UU., por ejemplo, la regulación puede provenir de jurisdicciones locales, estatales y federales. La UE y Singapur están tomando medidas similares para codificar las normas relativas a la gobernanza de la IA.

Hay una explosión de nuevos modelos y técnicas, pero se necesita flexibilidad para adaptarse a medida que se implementan nuevas leyes. Cumplir con estas regulaciones propuestas se está convirtiendo cada vez más en un desafío.

En estas propuestas, la regulación de la IA no se limita a campos como los seguros y las finanzas. Estamos viendo cómo la orientación reglamentaria llega a campos como la educación, la seguridad, la atención médica y el empleo. Si no está preparado para la regulación de IA en su industria ahora, es hora de comenzar a pensar en ello, porque está llegando.

Diseño e implementación de documentos para regulaciones y claridad

La gestión del riesgo de modelo se convertirá en un lugar común a medida que aumenten las regulaciones y se hagan cumplir. La capacidad de documentar sus opciones de diseño e implementación lo ayudará a moverse rápidamente y asegurarse de que no se quede atrás. Si tiene las capas mencionadas anteriormente en su lugar, entonces la explicabilidad debería ser fácil.

  • Las personas, los procesos y la tecnología son sus líneas internas de defensa cuando se trata de la gobernanza de la IA.
  • Asegúrese de comprender quiénes son todas las partes interesadas, incluidas las que podrían pasarse por alto.
  • Busque formas de tener aprobaciones de flujo de trabajo, control de versiones y monitoreo significativo.
  • Asegúrese de pensar en la IA explicable y la estandarización del flujo de trabajo.
  • Busque formas de codificar sus procesos. Cree un proceso, documente el proceso y apéguese al proceso.

En la sesión grabada IA lista para la empresa: Gestión de la gobernanza y el riesgo, puede aprender estrategias para crear buenos procesos de gobierno y consejos para monitorear su sistema de IA. Empiece por crear un plan de gobierno e identifique sus recursos existentes, además de saber dónde pedir ayuda.

Sesión de experiencia de IA

Inteligencia artificial lista para la empresa: gestión de la gobernanza y el riesgo

Ver a pedido

Sobre el Autor

Ted Kwartler
Ted Kwartler

CTO de campo, DataRobot

Ted Kwartler es el CTO de campo en DataRobot. Ted establece una estrategia de producto para usos explicables y éticos de la tecnología de datos. Ted aporta conocimientos y experiencia únicos en el uso de datos, perspicacia empresarial y ética a sus puestos actuales y anteriores en Liberty Mutual Insurance y Amazon. Además de tener 4 cursos de DataCamp, imparte cursos de posgrado en Harvard Extension School y es autor de “Text Mining in Practice with R”. Ted es asesor de la Oficina de Asuntos Económicos del Gobierno de EE. UU. y forma parte de un comité ordenado por el Congreso llamado «Comité Asesor de Datos para la Creación de Evidencia» que aboga por políticas basadas en datos.

Conoce a Ted Kwartler

Fuente del artículo

Deja un comentario