/ jueves 14 de enero de 2021

¿La inteligencia artificial puede aumentar la desigualdad?

Los humanos son capaces de detectar sus errores, las máquinas no, por lo que si los cometen, los repetirán permanentemente

El uso cada vez más diversificado de servicios que se basan en la inteligencia artificial (IA), como podrían ser los buscadores de información o las compras en línea nos hacen pensar que podemos confiar plenamente en los algoritmos con los que estos sistemas trabajan.

Y es que, a diferencia de los seres humanos, que tenemos la capacidad de identificar nuestros errores, y en su caso corregirlos, los especialistas nos recuerdan que cuando un sistema de IA comete un error, este se repetirá una y otra vez, sin importar cuántas veces observe los mismos datos.

Esto se debe a que los sistemas de inteligencia artificial se entrenan utilizando datos que inevitablemente reflejan el pasado, y si un conjunto de datos de entrenamiento contiene sesgos inherentes de decisiones humanas pasadas, estos sesgos son codificados y amplificados por el sistema.

De la misma manera, si el sistema contiene menos datos sobre un grupo minoritario en particular, las predicciones para ese grupo tenderán a ser peores. A esto se le llama "sesgo algorítmico".

El sesgo algorítmico puede surgir debido a la falta de datos de entrenamiento adecuados o como resultado de un diseño o configuración inadecuados del sistema.

Por ejemplo, un sistema que ayuda a un banco a decidir si concede o no préstamos, normalmente se capacitaría utilizando un gran conjunto de datos de las decisiones de préstamos anteriores del banco, así como otros datos relevantes a los que el banco tiene acceso.

El sistema puede comparar el historial financiero, de empleo y la información demográfica de un nuevo solicitante con la información correspondiente de solicitantes anteriores. Y a partir de esto, intenta predecir si el nuevo solicitante podrá reembolsar el préstamo.

Pero ese enfoque puede resultar problemático. Una forma en que podría surgir un sesgo algorítmico en esta situación es a través de sesgos inconscientes de los administradores de préstamos que tomaron decisiones anteriores sobre las solicitudes de hipotecas.

¿CÓMO SURGE?

Por ejemplo: Si a los clientes de grupos minoritarios se les negaron préstamos injustamente en el pasado, la IA considerará que la capacidad de pago general de estos grupos es menor de lo que en realidad puede ser.

Así, los jóvenes, las personas de color, las mujeres solteras, las personas con discapacidad y los trabajadores manuales, por mencionar solo algunos grupos, pueden estar en desventaja.

El sistema de inteligencia artificial sesgado descrito anteriormente plantea dos riesgos clave para el banco:

Primero, el banco podría perder clientes potenciales al enviar víctimas de prejuicios a sus competidores. Pero también podría ser considerado responsable en virtud de las leyes contra la discriminación.

Si un sistema de inteligencia artificial aplica continuamente un sesgo inherente en sus decisiones, será más fácil para el gobierno o los grupos de consumidores identificar este patrón sistemático. Esto puede dar lugar a fuertes multas y sanciones.

El Gradient Institute de Australia realizó un estudio que demuestra cómo las empresas pueden identificar el sesgo algorítmico en los sistemas de inteligencia artificial y lo más importante: cómo pueden mitigarlo.

El estudio, que fue realizado en colaboración con la Comisión de Derechos Humanos de Australia, el Centro de Investigación de Políticas del Consumidor y organizaciones no gubernamentales como Data61 y CHOICE, también proporciona orientación técnica sobre cómo se puede eliminar este sesgo, para que los sistemas de inteligencia artificial produzcan resultados éticos que no discriminen en función de características como la raza, la edad, el sexo o la discapacidad.

The Conversation realizó una simulación de un minorista de electricidad hipotético que utiliza una herramienta impulsada por IA para decidir cómo ofrecer productos a los clientes y en qué condiciones. La simulación se entrenó en datos históricos ficticios compuestos por individuos ficticios.

Con base en sus resultados, identificaron cinco enfoques para corregir el sesgo. Ese conjunto de herramientas se puede aplicar a empresas de una variedad de sectores para ayudar a garantizar que los sistemas de inteligencia artificial sean justos y precisos:

Obtener mejores datos. El riesgo de sesgo algorítmico se puede reducir al obtener puntos de datos adicionales o nuevos tipos de información sobre las personas, especialmente aquellas que están subrepresentadas (minorías) o aquellas que pueden aparecer de manera inexacta en los datos existentes.

Procesar previamente la información. Consiste en editar un conjunto de datos para enmascarar o eliminar información sobre atributos asociados con las protecciones bajo la ley contra la discriminación, como la raza o el género.

Incrementar la complejidad del modelo. Un modelo de IA más simple puede ser más fácil de probar, monitorear e interrogar. Pero también puede ser menos precisa y dar lugar a generalizaciones que favorezcan a la mayoría sobre las minorías.

Modificar el sistema. La lógica y los parámetros de un sistema de inteligencia artificial se pueden ajustar de forma proactiva para contrarrestar directamente el sesgo algorítmico.

Cambiar el objetivo de predicción. La medida específica elegida para guiar un sistema de IA influye directamente en cómo toma decisiones en diferentes grupos. Encontrar una medida más justa para usar como objetivo de predicción ayudará a reducir el sesgo mencionado.

Con las herramientas de toma de decisiones de IA cada vez más comunes, ahora tenemos la oportunidad no solo de aumentar la productividad, sino de crear una sociedad más equitativa y justa.

El uso cada vez más diversificado de servicios que se basan en la inteligencia artificial (IA), como podrían ser los buscadores de información o las compras en línea nos hacen pensar que podemos confiar plenamente en los algoritmos con los que estos sistemas trabajan.

Y es que, a diferencia de los seres humanos, que tenemos la capacidad de identificar nuestros errores, y en su caso corregirlos, los especialistas nos recuerdan que cuando un sistema de IA comete un error, este se repetirá una y otra vez, sin importar cuántas veces observe los mismos datos.

Esto se debe a que los sistemas de inteligencia artificial se entrenan utilizando datos que inevitablemente reflejan el pasado, y si un conjunto de datos de entrenamiento contiene sesgos inherentes de decisiones humanas pasadas, estos sesgos son codificados y amplificados por el sistema.

De la misma manera, si el sistema contiene menos datos sobre un grupo minoritario en particular, las predicciones para ese grupo tenderán a ser peores. A esto se le llama "sesgo algorítmico".

El sesgo algorítmico puede surgir debido a la falta de datos de entrenamiento adecuados o como resultado de un diseño o configuración inadecuados del sistema.

Por ejemplo, un sistema que ayuda a un banco a decidir si concede o no préstamos, normalmente se capacitaría utilizando un gran conjunto de datos de las decisiones de préstamos anteriores del banco, así como otros datos relevantes a los que el banco tiene acceso.

El sistema puede comparar el historial financiero, de empleo y la información demográfica de un nuevo solicitante con la información correspondiente de solicitantes anteriores. Y a partir de esto, intenta predecir si el nuevo solicitante podrá reembolsar el préstamo.

Pero ese enfoque puede resultar problemático. Una forma en que podría surgir un sesgo algorítmico en esta situación es a través de sesgos inconscientes de los administradores de préstamos que tomaron decisiones anteriores sobre las solicitudes de hipotecas.

¿CÓMO SURGE?

Por ejemplo: Si a los clientes de grupos minoritarios se les negaron préstamos injustamente en el pasado, la IA considerará que la capacidad de pago general de estos grupos es menor de lo que en realidad puede ser.

Así, los jóvenes, las personas de color, las mujeres solteras, las personas con discapacidad y los trabajadores manuales, por mencionar solo algunos grupos, pueden estar en desventaja.

El sistema de inteligencia artificial sesgado descrito anteriormente plantea dos riesgos clave para el banco:

Primero, el banco podría perder clientes potenciales al enviar víctimas de prejuicios a sus competidores. Pero también podría ser considerado responsable en virtud de las leyes contra la discriminación.

Si un sistema de inteligencia artificial aplica continuamente un sesgo inherente en sus decisiones, será más fácil para el gobierno o los grupos de consumidores identificar este patrón sistemático. Esto puede dar lugar a fuertes multas y sanciones.

El Gradient Institute de Australia realizó un estudio que demuestra cómo las empresas pueden identificar el sesgo algorítmico en los sistemas de inteligencia artificial y lo más importante: cómo pueden mitigarlo.

El estudio, que fue realizado en colaboración con la Comisión de Derechos Humanos de Australia, el Centro de Investigación de Políticas del Consumidor y organizaciones no gubernamentales como Data61 y CHOICE, también proporciona orientación técnica sobre cómo se puede eliminar este sesgo, para que los sistemas de inteligencia artificial produzcan resultados éticos que no discriminen en función de características como la raza, la edad, el sexo o la discapacidad.

The Conversation realizó una simulación de un minorista de electricidad hipotético que utiliza una herramienta impulsada por IA para decidir cómo ofrecer productos a los clientes y en qué condiciones. La simulación se entrenó en datos históricos ficticios compuestos por individuos ficticios.

Con base en sus resultados, identificaron cinco enfoques para corregir el sesgo. Ese conjunto de herramientas se puede aplicar a empresas de una variedad de sectores para ayudar a garantizar que los sistemas de inteligencia artificial sean justos y precisos:

Obtener mejores datos. El riesgo de sesgo algorítmico se puede reducir al obtener puntos de datos adicionales o nuevos tipos de información sobre las personas, especialmente aquellas que están subrepresentadas (minorías) o aquellas que pueden aparecer de manera inexacta en los datos existentes.

Procesar previamente la información. Consiste en editar un conjunto de datos para enmascarar o eliminar información sobre atributos asociados con las protecciones bajo la ley contra la discriminación, como la raza o el género.

Incrementar la complejidad del modelo. Un modelo de IA más simple puede ser más fácil de probar, monitorear e interrogar. Pero también puede ser menos precisa y dar lugar a generalizaciones que favorezcan a la mayoría sobre las minorías.

Modificar el sistema. La lógica y los parámetros de un sistema de inteligencia artificial se pueden ajustar de forma proactiva para contrarrestar directamente el sesgo algorítmico.

Cambiar el objetivo de predicción. La medida específica elegida para guiar un sistema de IA influye directamente en cómo toma decisiones en diferentes grupos. Encontrar una medida más justa para usar como objetivo de predicción ayudará a reducir el sesgo mencionado.

Con las herramientas de toma de decisiones de IA cada vez más comunes, ahora tenemos la oportunidad no solo de aumentar la productividad, sino de crear una sociedad más equitativa y justa.

República

Se desploma puente peatonal en la comunidad Enramadas de SLP

El aparatoso accidente fue ocasionado luego de que un tráiler se impactara contra la estructura

República

[Video] Mujer recuperó su bolso pero fue arrastrada por motoladrón en Campeche

El intento de robo quedó registrado por cámaras de seguridad vecinal de la zona centro de la capital de Campeche

Mundo

Día de la Tierra, una celebración entre la pandemia e incendios

Casi un millón de especies animales están en peligro de extinción

Sociedad

Noche violenta en Acapulco deja 17 negocios incendiados

Al lugar arribaron bomberos que sofocaron el fuego, donde no se reportaron personas lesionadas; policías estatales llegaron a resguardar la zona

República

Se desploma puente peatonal en la comunidad Enramadas de SLP

El aparatoso accidente fue ocasionado luego de que un tráiler se impactara contra la estructura

Metrópoli

Auditoría indica que Milena Quiroga no aclaró gastos por 253 mil pesos

También se destaca la falta de comprobación por 30 mil pesos de un festejo de Día de las Madres