Inteligencia Artificial responsable: creando modelos centrados en las personas
30/09/2020
La Inteligencia Artificial se está desarrollando rápidamente como una innovación increíblemente sorprendente, y con un campo de aplicación aparentemente ilimitado. La consolidación de la imaginación y la creatividad humanas con la adaptabilidad de Machine Learning está impulsando nuestra base de conocimientos y comprensión a un ritmo notable.
Sin embargo, la Inteligencia Artificial genera preocupaciones en numerosos frentes debido a su posible efecto disruptivo. Estos miedos incluyen el desarraigo de la fuerza laboral, la pérdida de protección, posibles sesgos en la toma de decisiones y la falta de control sobre los sistemas automatizados y los robots. Si bien estos problemas son dignos de mención, también se pueden abordar con la planificación, supervisión y gobernanza correctas.
A la hora de trabajar con sistemas de Machine Learning que interactúen con personas, ya sea en forma directa o indirecta, es importante que tengas en cuenta cómo se comportan estas personas y qué necesitan. Esto los hará más valiosos y, además, más seguros de utilizar.
Tienes, como mínimo, dos motivos por los que comprender a las personas puede beneficiar a los sistemas inteligentes.
El primer motivo está relacionado con la obtención de datos, ya que muchos sistemas automáticos están diseñados para recoger los datos personales, como fechas de nacimiento y direcciones. Pero se ha visto que las personas no siempre dicen lo que quieren decir, y a veces proporcionan datos falsos o incorrectos.
Otro motivo que debes revisar está relacionado con la interacción con las personas, ya que muchas veces se pasa por alto el simple hecho de no comprender el habla humana o el lenguaje escrito. Esto se puede percibir por las personas como un elemento desmotivador y hasta decepcionante, si parte de la conversación u objetivos son implícitos o públicamente conocidos.
La investigación sobre Inteligencia Artificial responsable es un campo en alza que aboga por mejores prácticas y técnicas en la implementación de modelos de Machine Learning. El objetivo es generar confianza y, al mismo tiempo, limitar los riesgos potenciales no sólo para las organizaciones que implementan estos modelos, sino también para los usuarios que los utilizan.
La Inteligencia Artificial responsable busca reunir las prácticas básicas que permitan garantizar el uso ético, transparente y responsable de las tecnologías de Inteligencia Artificial, de una manera predecible y cumpliendo con las expectativas del usuario, los estándares de calidad, las leyes vigentes y los estándares culturales.
La Inteligencia Artificial responsable puede proteger contra la utilización de información o algoritmos unilaterales, garantizar que las decisiones automatizadas sean defendidas y razonables, y ayudar a mantener la confianza del usuario y la privacidad individual. Al dar reglas claras de participación, la Inteligencia Artificial responsable permite a las empresas bajo el escrutinio público y de las autoridades gubernamentales, mejorar y comprender la capacidad innovadora de la Inteligencia Artificial que es a la vez convincente y responsable.
Machine Learning centrado en las personas es uno de los conceptos más importantes del mercado hasta la fecha. Organizaciones líderes como por ejemplo Stanford y MIT, están creando laboratorios explícitamente para fomentar esta ciencia.
El MIT define este concepto como "el diseño, desarrollo e implementación de sistemas de información que aprenden y colaboran con los humanos de una manera profunda y significativa".
Este campo está en sus comienzos, pero es muy importante que lo tengas en cuenta, tanto para especializarte en esta nueva ciencia como también para implementar este paradigma en tus proyectos.
0 comentarios