Los inversores están invirtiendo miles de millones en inteligencia artificial. Es hora de una inversión proporcional en A.I. gobernancia

En este apogeo de A.I. Innovación, las organizaciones están vertiendo decenas de miles de millones de dólares en A.I. desarrollo. Sin embargo, a pesar de todo el dinero invertido en capacidades, no ha habido una inversión proporcional en A.I. gobernanza.

Algunas compañías pueden tomar la posición de que cuando los gobiernos mundiales liberen a A.I. Regulaciones, ese será el momento apropiado para luchar A.I. Programas en una estructura de gobierno que puede abordar temas complejos como privacidad, transparencia, responsabilidad y equidad. Mientras tanto, el negocio puede centrarse únicamente en A.I. rendimiento.

Las ruedas reguladoras ya están en movimiento. Sin embargo, las regulaciones se mueven a la velocidad de la burocracia, y A.I. La innovación solo está acelerando a A.I. ya está implementado a escala, y nos estamos acercando rápidamente a un punto después del cual A.I. Las capacidades superarán la reglamentación efectiva, poniendo la responsabilidad de la autorregulación directamente en manos de los líderes empresariales.

.

La solución a este rompecabezas es que las organizaciones encuentren el equilibrio entre seguir las reglas existentes y la autorregulación. Algunas compañías están aumentando al responsable A.I. Desafío: Microsoft tiene una oficina de responsabilidad A.I. Use, walmart un equipo de ciudadanía digital y Salesforce Una oficina de uso ético y humano de la tecnología. Sin embargo, más organizaciones deben adoptar rápidamente una nueva era de A.I. autorregulación.

El valor comercial en la autorregulación

Los organismos gubernamentales no pueden investigar a todas las empresas, comprender a nivel técnico lo que A.I. Los programas están surgiendo, pronostican los posibles problemas que pueden resultar y luego crean rápidamente reglas para prevenir problemas antes de que ocurran. Ese es un escenario regulatorio inalcanzable, y en ningún caso ninguna empresa querría. En cambio, cada empresa tiene una visión incisiva de su propia A.I. esfuerzos, poniéndolo en la mejor posición para abordar A.I. problemas a medida que se identifican.

Si bien las regulaciones gubernamentales se aplican multas y litigios, las consecuencias de no autorregular son potencialmente mucho más impactantes.

Imagine un A.I. Herramienta implementada en un entorno minorista que utiliza FCTV Feeds, datos del cliente, análisis de comportamiento en tiempo real y otros datos para predecir lo que el comprador puede comprar más que un empleado utiliza una técnica de ventas particular. El A.I. También da forma a las personas de los clientes que se almacenan y se actualizan para campañas publicitarias específicas. El A.I. La herramienta en sí se compró a un proveedor de terceros y es una de las docenas de A.I. desplegado en todas las operaciones del minorista.

Las regulaciones emergentes pueden dictar cómo se almacenan y transfieren los datos del cliente, si se necesita consentimiento antes de recopilar los datos y si la herramienta es probablemente justa en sus predicciones. Esas consideraciones son válidas, pero no son integrales desde la perspectiva comercial. Por ejemplo, fue el A.I. ¿El proveedor y sus herramientas examinaron las brechas de seguridad que podrían impulsar las tecnologías conectadas de la empresa? ¿El personal tiene la capacitación necesaria y las responsabilidades documentadas necesarias para usar la herramienta correctamente? Son los clientes conscientes de que A.I. ¿Se utiliza para construir una persona detallada que se almacena en otra ubicación? ¿Deberían ser conscientes?

Las respuestas a este tipo de preguntas pueden afectar significativamente la empresa en términos de seguridad, eficiencia, ROI sobre inversiones en tecnología y reputación de la marca, entre otras cosas. Este caso hipotético revela cómo no autorregular a A.I. Los programas exponen la organización a innumerables problemas potenciales, muchos de los cuales probablemente caen fuera del alcance regulatorio de un gobierno de todos modos. El mejor camino hacia adelante con A.I. está moldeado por el gobierno.

Gobierno para la confianza en A.I.

No dos empresas y A.I. Los casos de uso son los mismos, y en la era de la autorregulación, se llama a la empresa para evaluar si las herramientas que utiliza se pueden implementar de manera segura, ética y en línea con los valores de la empresa y las reglas existentes o tangenciales. En resumen, las empresas deben saber si el A.I. puede ser confianza .

La confianza como lente para la gobernanza impacta más que el solo citado A.I. Preocupaciones, como el potencial de discriminación y amenazas a la seguridad de los datos personales. Como discuto en mi libro, ai confiable , la confianza también se aplica a cosas como la confiabilidad a lo largo del tiempo, la transparencia a todos los interesados ​​y la responsabilidad horneada en todo el A.I. ciclo de vida.

No todos estos factores son relevantes para todas las organizaciones. Un A.I. Eso automatiza la reconciliación comercial probablemente no representa una amenaza de discriminación, pero la seguridad del modelo y los datos subyacentes es fundamental. Por el contrario, la seguridad de los datos es algo menos preocupante para el predictivo A.I. Se utiliza para anticipar la inseguridad de los alimentos y la vivienda, pero la injusticia y la discriminación son consideraciones prioritarias para una herramienta que se basa en datos históricos que potencialmente están llenos de sesgo latente.

Autorregulación efectiva en A.I. Requiere un enfoque completo de Lifecycle, donde la atención a la confianza, la ética y los resultados se incrustan en cada etapa del proyecto. Los procesos deben modificarse para establecer puntos de referencia claros para la toma de decisiones. Los empleados deben ser educados y capacitados para contribuir a A.I. Gobierno, con una sólida comprensión de las herramientas, su impacto y la responsabilidad individual del empleado en el ciclo de vida. Y el ecosistema tecnológico de dispositivos de borde, plataformas en la nube, sensores y otras herramientas debe estar alineada para promover las cualidades de confianza más importantes en una implementación dada.

La autorregulación llena el vacío entre la innovación y las reglas hechas por el gobierno. No solo establece la empresa en una ruta para cumplir con cualquier regulación que surja en el futuro, sino que también ofrece un valor empresarial significativo al maximizar la inversión y minimizar los resultados negativos.

Por todo lo que hemos gastado en la construcción A.I. Capacidades, también debemos buscar invertir en cómo gestionamos y usamos estas herramientas para todo su potencial de manera confiable, y no debemos esperar a que los gobiernos nos digan cómo.

beena ammananth es el director ejecutivo de Global Deloitte A.I. Instituto.

Las opiniones expresadas en Fortune.com Las piezas de los comentarios son únicamente las opiniones de sus autores y no reflejan necesariamente las opiniones y creencias de Fortune .

Más imprescindible comentario Publicado por Fortune :