El uso constante de la IA y qué debería ser ético - The Learning Company Gotodigital

El uso constante de la IA y qué debería ser ético

En el auge de la implementación de Inteligencia Artificial (IA) en los procesos empresariales para optimización y desarrollo, surgen nuevas incógnitas sobre su verdadero poder y hasta dónde puede llegar bajo su uso responsable.

En vista del poder que ha brindado a las empresas se discute cómo mantener un control sobre la información que maneja, al tratarse de grandes y diversas cantidades de datos. Esto ha llevado a la conclusión que los problemas en el uso ético de la Inteligencia Artificial debería ser observado desde un enfoque de errores humanos, más que faltas tecnológicas.

Esto debido a que se toma en consideración un aspecto importante en la naturaleza humana: las diferentes inclinaciones o sesgos de opinión. Al afrontar este aspecto debemos tener en cuenta que la IA no está preparada para eliminar por sí sola los prejuicios que pueden encontrarse dentro de las formas de pensar.

Es responsabilidad de aquellos que trabajan con IA de localizar y manejar el sesgo, además de enfrentar un nuevo aprendizaje dentro de la IA para lograr identificarlo. Lograr prevenir que este tipo de información sea incluida en el proceso de aprendizaje de la Inteligencia Artificial es clave para evitar el fortalecimiento de prejuicios raciales, sociales, monetarios, entre otros que pueden encontrarse en data almacenada.

Richard Socher, Jefe Científico de Salesforce, brinda un ejemplo que ayuda a visualizar el problema: «Un banco quiere predecir si debe dar un préstamo a alguien. Si, en el pasado, el banco no ha dado tantos préstamos a mujeres o personas de ciertas minorías, digamos, y tiene ese tipo de características en su conjunto de datos, entonces el algoritmo podría decir,’No, no es una buena idea’. Así que la IA está detectando el prejuicio y amplificándolo o al menos manteniéndolo».

Un ejemplo sencillo de Inteligencia Artificial que aprende de información almacenada con anterioridad, este proceso es clave para el crecimiento y evolución de la tecnología pero en si mismo podemos ver los defectos de los que hablamos. Los algoritmos de IA solo mejorarán a partir de la información que se le prevé y es aquí donde el factor humano podrá afectar en gran manera.

Si hablamos de entrenamiento a través de machine learning  enfrentamos cantidades exorbitantes de información que ha sido creada y ordenada por humanos, lo cual continúa la batalla sobre cómo debería ser capaz la máquina de separar lo que es importante de la esencia humana, que puede contener rasgos de violencia o intolerancia.

Aquí recordamos a Tay, un experimento de Microsoft diseñado para mantener una conversación informal y divertida a través de la red social Twitter. Por desgracia, a sus 24 horas de lanzamiento Tay, un gran intento de inteligencia artificial, tuvo que ser retirada de la web al demostrar aspectos racistas y xenofóbicos dentro de su personalidad, solo por mantener conversaciones con miles de personas a través de la red social.

ética en inteligencia artificial

Existe un debate global sobre la ética en el uso y creación de nuevas plataformas de Inteligencia Artificial, principios sobre los cuales trabajar de acuerdo a los avances realizados en el área, en el entendimiento de su funcionamiento y contribuir de manera positiva en algunos de los problemas más difíciles de la humanidad.

Los 10 principios para mantener el uso ético en la Inteligencia Artificial

La IBE, Institute of Business Ethics, creó un marco dentro del cual incentiva e impulse las buenas prácticas entre las empresas que poseen y construyen nuevos caminos para la IA. Contribuye a mantener el diálogo abierto y la constante revisión sobre cuál es el mejor camino que las personas deben seguir para mantener la IA como una herramienta positiva que nos acerca al futuro.

  1. Precisión

Las compañías deben garantizar que el sistema de IA utilizado de resultados correctos, precisos y confiables. Para ello, los algoritmos deben estar desprovistos de opiniones y riesgos sistemáticos que pueden derivar, por ejemplo, de una muestra injusta sobre la población o sobre una estimación incorrecta.

Es crítico que, los algoritmos de machine learning utilizados en el proceso de decisión de IA se encuentren entrenados ante la posibilidad de diversos sets de datos para prevenir este tipo de escenarios. Además, es importante por parte de las organizaciones crear estándares de precisión que determinen cuáles serán sus expectativas y niveles aceptados.

  1. Respeto a la privacidad

En la búsqueda de enfrentar la corriente de dudas sobre el uso de datos personales por parte de la IA, la Comisión Europea ha reforzado el principio de que cualquier persona tiene el derecho de protección sobre sus datos personales al proponer una reforma en la leyes de protección de la información (General Data Protection Regulation – GDPR).

  1. Transparencia

Se impulsa la creación de material open source, para ayudar y mejorar el entendimiento entre la comunidad de desarrolladores en los aspectos de Inteligencia Artificial de su interés, para que así puedan ser capaces de explicar de forma más clara su funcionamiento al público, esto fortalece la confianza hacía la IA y previene miedos injustificados.

  1. Interpretación

A medida que los algoritmos de IA aumentan su complejidad se hace más difícil explicar de qué forma funcionan. El uso de estos algoritmos puede resultar en que incluso los ingenieros más experimentados no sepan descifrar cuándo algo no resultó de forma correcta o qué momento se produjo un error.

Es esencial la creación de algoritmos explicables y de fácil interpretación por parte de las organizaciones, para así mermar la preocupación de encontrarse con máquinas increíblemente poderosas e inteligentes pero poco confiables.

  1. Justicia

Requiere a las empresas considerar el impacto del diseño de la IA y su desarrollo. Los sistemas de IA son capaces de realizar tareas previamente realizadas por humanos, de manera más eficiente y confiable. El ambiente de trabajo va a cambiar y por lo tanto, es importante que las empresas estén conscientes de cómo esto afectará a sus empleados y clientes.

  1. Integridad

Debemos trabajar por garantizar que su uso se encuentre centrado solo en el propósito estipulado. Esta garantía se extiende hasta las empresas que diseñan, crean y venden un servicio de Inteligencia Artificial, es su responsabilidad garantizar que este sistema será utilizado respetando los acuerdos principales de venta.

Es obligatoria la creación de cláusulas que definan el uso para cual la tecnología está destinada, además es necesario que las organizaciones expertas conduzcan una capacitación adecuada para sus clientes y así disminuir el riesgo de uso inadecuado de la tecnología.

  1. Control

Gran parte del escepticismo público sobre el futuro de la IA es alimentada por el temor de que los humanos puedan perder el control sobre las máquinas. Para tener control total sobre los sistemas de IA, es importante que tanto las empresas como los diseñadores de algoritmos sólo trabajen con tecnologías que entiendan perfectamente.

Deben encontrarse en la capacidad de explicar las funcionalidades de una tecnología sobre la cual parecen tener el control, esto es esencial para construir la confianza con empleados, clientes y todas las partes interesadas. Además, minimiza el riesgo de su uso indebido o su uso para fines personales y ganancias.

  1. Impacto

En vista de la rápida adopción de la IA por parte de muchas empresas otras podrían verse tentadas a intentarlo al creer que esta puede beneficiar su negocio en gran manera. A pesar de la creencia, es posible que las tecnologías disponibles no se traduzcan en ganancias positivas para todas las empresas.

Es necesario medir el impacto de la IA para así evitar costos innecesarios para estos negocios, además de riesgos que pueden derivar del uso inadecuado e inexpertos de las tecnologías. Las empresas necesitan identificar cuáles son los riesgos éticos involucrados, quiénes van a ser impactados – positiva y negativamente, quiénes van a asumir los costos, y si existe una alternativa valiosa y menos riesgosa.

  1. Rendición de cuentas

Esto indica que siempre debe ser posible identificar a las personas responsables sobre el uso de las tecnologías. En términos prácticos, es aconsejable incluir en los contratos una cláusula que defina las responsabilidades de cada parte y sus limitaciones. Aunque no siempre es practicable y no puede sustituir el empoderamiento individual, esto puede ayudar a prevenir una situación en la que todas las partes comparten la responsabilidad y, por lo tanto, se hace difícil atribuir la responsabilidad de manera apropiada.

  1.  Aprendizaje

Los empleados y otras partes interesadas deben ser capaces de asumir la responsabilidad personal de las consecuencias de su uso de la IA y deben recibir las habilidades necesarias para hacerlo.

No sólo las habilidades técnicas para construirlo o utilizarlo, sino también la comprensión de las posibles implicaciones éticas que puede tener. Es importante que las empresas mejoren su comunicación en torno a la IA, para que las personas se sientan parte de su desarrollo y no sus receptores pasivos, o incluso víctimas.  

Este aumento en el interés de conocer más sobre las tecnologías de Inteligencia Artificial, sobre cómo crearlas e implementarlas dentro de cada proceso para ver mejoras han aumentado las preocupaciones sobre cómo debería actuar una empresa comprometida con su progreso sin sobrepasar los derechos de sus clientes y sus iguales.

Aquellas empresas que deseen ser reconocidas como confiables en el futuro trabajan hoy con integridad y compromiso, redefiniendo cómo interactúan con la tecnología y aprendiendo cada paso cómo ser más abiertos sobre sus experiencias, aprendizajes y estilos de trabajo.

By |2019-05-15T21:39:52+00:00marzo 15th, 2019|Development, Inteligencia Artificial|

¿Tienes algún comentario?

En nuestra web son utilizadas cookies propias y de terceros capaces de brindar información sobre sus preferencias de navegación que ayudarán a mejorar nuestro trabajo.

Encuentra nuestra política de cookies aquí

Estoy de acuerdo