/ martes 27 de abril de 2021

La inteligencia artificial no deja de sorprendernos

La denominada Inteligencia Artificial (IA) representa un área de creciente interés en el campo de la inteligencia artificial y el aprendizaje automático

En vez de llegar a una conclusión por medios que permanecen ocultos, la nueva tecnología de la Inteligencia Artificial Explicable describe el usuario de las razones por los cuales llega a un resultado y le propone sugerencias para mejorar la situación, generando confianza en la persona con la que interactúa.

"Este algoritmo informático puede informar a los usuarios de los pasos que han seguido para lograr unas resultados y que sí pueden entender cómo ha llegado a esa conclusión explicando, por ejemplo, la razón por la que se considera que una mamografía es normal o anormal, lo que es importante para un médico",
Carlos Cordero, director de Tecnología de Fujitsu

Esto ayuda a evitar el llamado fenómeno de la "caja negra", en el sentido de que la IA llega a una conclusión a través de medios poco claros y potencialmente problemáticos, como Fujitsu, que desarrolla un nuevo sistema basado en este principio con la Universidad de Hokkaido.

"Si se hace extensible la IA en una revisión médica podemos determinar con más éxito el nivel de riesgo de una enfermedad, añadiendo datos como el peso, la masa muscular, presión arterial o la altura, ya que es más realista. Además aporta sugerencias para mejorar la salud", explica Cordero.

La denominada Inteligencia Artificial (IA) representa un área de creciente interés en el campo de la inteligencia artificial y el aprendizaje automático, según los expertos.

Mientras que las tecnologías de IA tradicionales pueden tomar decisiones automáticamente a partir de los datos, la IA Explicable proporciona además razones individuales para estas decisiones.

Esto ayuda a evitar el llamado fenómeno de la "caja negra", en el que la IA llega a una conclusión a través de medios poco claros y potencialmente problemáticos, como la compañía tecnológica japonesa Fujitsu (www.fujitsu.com), que desarrolla un nuevo sistema basado en este principio con la Universidad de Hokkaido (www.global.hokudai.ac.jp).

Este nuevo sistema de Fujitsu y Hokkaido, explica los usuarios de las decisiones de la IA, y también les presentamos los pasos concretos necesarios que se atreven a conseguir un determinado resultado deseado y para obtener hipotéticas mejoras, basándose en los datos que procesan la IA sobre las revisiones médicas, por ejemplo.

Por ejemplo, si una IA emite juicios sobre el estado de salud de una persona determinante que ésta no es saludable, la nueva tecnología de IA Explicable puede utilizarse para explicar la razón del resultado a partir de los datos de exámenes médicos como la altura, el peso y la presión arterial.

Para, después, ofrecer el usuario sugerencias específicas sobre la mejor manera de recuperar la salud, analizando un gran número de datos de los exámenes médicos, teniendo en cuenta su viabilidad y dificultad para poner en práctica.

Basándose en los datos de las revisiones médicas, esta IA Explicable presenta al usuario los atributos (peso corporal, masa muscular y presión arterial) que tiene cambiar para reducir el riesgo de sufrir una determinada enfermedad y, además, le explica cuáles de ellos pueden cambiar con el menor esfuerzo posible y con riesgos bajos para la salud.

Esta nueva tecnología ofrece la posibilidad de mejorar la transparencia y la fiabilidad de las decisiones tomadas por la IA, lo que permitirá a más personas en el futuro interactuar con las tecnologías que la utilizan, ofreciendo una sensación de confianza y tranquilidad, según Fujitsu.

PROGRAMAS INFORMÁTICOS QUE APRENDEN.

"Un algoritmo de IA es un programa de ordenador que tiene un entrenamiento antes de poder ser de alguna utilidad", explica a Efe Carlos Cordero, director de Tecnología de Fujitsu.

Señala que "el entrenamiento de una IA que nos ayuda en la determinación de anomalías en mamografías, consiste en hacer "leer" un dicho programa kilómetros de imágenes de mamografías".

"Cada una de esas imágenes ha sido "etiquetada" por expertos para indicar el programa que son normales y que son anormales y donde radican dichas anomalías", explica.

"Una IA entrenada de este modo no necesita más atención y puede ponerse en producción para dar soporte a los expertos e indicarles en que imágenes ve o no ve anomalías", según Cordero.

El experto que la gran mayoría de los siguen este proceso de entrenamiento y puesta en producción, pero todos tienen dos problemas importantes.

"Por un lado, no hay heno explicación de los resultados que reportan - en el caso anterior si la imagen es anómala o no - y el experto no tiene forma de saber porque la IA ha dicho que es normal o anormal. Tener que hacer un acto de fe y, en ciertos sectores como el médico, esto es un gran problema"

"Por otro lado, los resultados que reportan tienen una dependencia total y absoluta de la fase de entrenamiento y de los medios (las imágenes) que se han dado para poder aprender. Si ese conjunto de imágenes no es lo suficientemente amplio se va a generar una mal entrenada, que puede dar resultados poco claros y potencialmente problemáticos", resalta.

INTELIGENCIA ARTIFICIAL MÁS TRANSPARENTE.

"La "explicable" es una nueva tecnología que ofrece la posibilidad de mejorar la fiabilidad de las decisiones tomadas por la Inteligencia Artificial, ya que no hace lo que hace de forma automática, sino que añade razones en función de las decisiones generadas. Explica el porqué de la decisión",.

"Además de facilitar la posibilidad de ofrecer a los usuarios los pasos concretos que han seguido para lograr los resultados, para que puedan llegar a una conclusión e ayuda a entender los resultados erróneos y la necesidad de un reentrenamiento", según el CTO de Fujitsu.

"Si se hace extensible la IA en una revisión médica podemos determinar con más éxito el nivel de riesgo de una enfermedad, los datos como el peso, la masa muscular, presión arterial o la altura, ya que es más realista, además de aportar sugerencias para mejorar la salud", explica Cordero.

Este experto destaca que las decisiones de IA son más precisas que las de las personas, pero las personas demandan a la IA una justificación de sus conclusiones y así lo afirma un 60% de los consultados por Fujitsu.

Cordero consideró que "se debe evitar el fenómeno "caja negra" y proporcionar razones a los datos de IA, para que las decisiones que se toman sean más precisas, de una confianza plena y una ayuda a tomar medidas perfectas".

"Un médico no puede fiarse del resultado de una IA que no hay mar capaz de explicar cómo ha llegado a un diagnóstico, lo mismo que un inversor puede poner en duda la resultado de una IA que le indique que tiene que cambiar su cesta de inversiones, sin explicar los motivos que le llevan a sugerir dicho cambio", concluye Cordero.

Síguenos en Facebook: La Prensa Oficial y en Twitter: @laprensaoem

En vez de llegar a una conclusión por medios que permanecen ocultos, la nueva tecnología de la Inteligencia Artificial Explicable describe el usuario de las razones por los cuales llega a un resultado y le propone sugerencias para mejorar la situación, generando confianza en la persona con la que interactúa.

"Este algoritmo informático puede informar a los usuarios de los pasos que han seguido para lograr unas resultados y que sí pueden entender cómo ha llegado a esa conclusión explicando, por ejemplo, la razón por la que se considera que una mamografía es normal o anormal, lo que es importante para un médico",
Carlos Cordero, director de Tecnología de Fujitsu

Esto ayuda a evitar el llamado fenómeno de la "caja negra", en el sentido de que la IA llega a una conclusión a través de medios poco claros y potencialmente problemáticos, como Fujitsu, que desarrolla un nuevo sistema basado en este principio con la Universidad de Hokkaido.

"Si se hace extensible la IA en una revisión médica podemos determinar con más éxito el nivel de riesgo de una enfermedad, añadiendo datos como el peso, la masa muscular, presión arterial o la altura, ya que es más realista. Además aporta sugerencias para mejorar la salud", explica Cordero.

La denominada Inteligencia Artificial (IA) representa un área de creciente interés en el campo de la inteligencia artificial y el aprendizaje automático, según los expertos.

Mientras que las tecnologías de IA tradicionales pueden tomar decisiones automáticamente a partir de los datos, la IA Explicable proporciona además razones individuales para estas decisiones.

Esto ayuda a evitar el llamado fenómeno de la "caja negra", en el que la IA llega a una conclusión a través de medios poco claros y potencialmente problemáticos, como la compañía tecnológica japonesa Fujitsu (www.fujitsu.com), que desarrolla un nuevo sistema basado en este principio con la Universidad de Hokkaido (www.global.hokudai.ac.jp).

Este nuevo sistema de Fujitsu y Hokkaido, explica los usuarios de las decisiones de la IA, y también les presentamos los pasos concretos necesarios que se atreven a conseguir un determinado resultado deseado y para obtener hipotéticas mejoras, basándose en los datos que procesan la IA sobre las revisiones médicas, por ejemplo.

Por ejemplo, si una IA emite juicios sobre el estado de salud de una persona determinante que ésta no es saludable, la nueva tecnología de IA Explicable puede utilizarse para explicar la razón del resultado a partir de los datos de exámenes médicos como la altura, el peso y la presión arterial.

Para, después, ofrecer el usuario sugerencias específicas sobre la mejor manera de recuperar la salud, analizando un gran número de datos de los exámenes médicos, teniendo en cuenta su viabilidad y dificultad para poner en práctica.

Basándose en los datos de las revisiones médicas, esta IA Explicable presenta al usuario los atributos (peso corporal, masa muscular y presión arterial) que tiene cambiar para reducir el riesgo de sufrir una determinada enfermedad y, además, le explica cuáles de ellos pueden cambiar con el menor esfuerzo posible y con riesgos bajos para la salud.

Esta nueva tecnología ofrece la posibilidad de mejorar la transparencia y la fiabilidad de las decisiones tomadas por la IA, lo que permitirá a más personas en el futuro interactuar con las tecnologías que la utilizan, ofreciendo una sensación de confianza y tranquilidad, según Fujitsu.

PROGRAMAS INFORMÁTICOS QUE APRENDEN.

"Un algoritmo de IA es un programa de ordenador que tiene un entrenamiento antes de poder ser de alguna utilidad", explica a Efe Carlos Cordero, director de Tecnología de Fujitsu.

Señala que "el entrenamiento de una IA que nos ayuda en la determinación de anomalías en mamografías, consiste en hacer "leer" un dicho programa kilómetros de imágenes de mamografías".

"Cada una de esas imágenes ha sido "etiquetada" por expertos para indicar el programa que son normales y que son anormales y donde radican dichas anomalías", explica.

"Una IA entrenada de este modo no necesita más atención y puede ponerse en producción para dar soporte a los expertos e indicarles en que imágenes ve o no ve anomalías", según Cordero.

El experto que la gran mayoría de los siguen este proceso de entrenamiento y puesta en producción, pero todos tienen dos problemas importantes.

"Por un lado, no hay heno explicación de los resultados que reportan - en el caso anterior si la imagen es anómala o no - y el experto no tiene forma de saber porque la IA ha dicho que es normal o anormal. Tener que hacer un acto de fe y, en ciertos sectores como el médico, esto es un gran problema"

"Por otro lado, los resultados que reportan tienen una dependencia total y absoluta de la fase de entrenamiento y de los medios (las imágenes) que se han dado para poder aprender. Si ese conjunto de imágenes no es lo suficientemente amplio se va a generar una mal entrenada, que puede dar resultados poco claros y potencialmente problemáticos", resalta.

INTELIGENCIA ARTIFICIAL MÁS TRANSPARENTE.

"La "explicable" es una nueva tecnología que ofrece la posibilidad de mejorar la fiabilidad de las decisiones tomadas por la Inteligencia Artificial, ya que no hace lo que hace de forma automática, sino que añade razones en función de las decisiones generadas. Explica el porqué de la decisión",.

"Además de facilitar la posibilidad de ofrecer a los usuarios los pasos concretos que han seguido para lograr los resultados, para que puedan llegar a una conclusión e ayuda a entender los resultados erróneos y la necesidad de un reentrenamiento", según el CTO de Fujitsu.

"Si se hace extensible la IA en una revisión médica podemos determinar con más éxito el nivel de riesgo de una enfermedad, los datos como el peso, la masa muscular, presión arterial o la altura, ya que es más realista, además de aportar sugerencias para mejorar la salud", explica Cordero.

Este experto destaca que las decisiones de IA son más precisas que las de las personas, pero las personas demandan a la IA una justificación de sus conclusiones y así lo afirma un 60% de los consultados por Fujitsu.

Cordero consideró que "se debe evitar el fenómeno "caja negra" y proporcionar razones a los datos de IA, para que las decisiones que se toman sean más precisas, de una confianza plena y una ayuda a tomar medidas perfectas".

"Un médico no puede fiarse del resultado de una IA que no hay mar capaz de explicar cómo ha llegado a un diagnóstico, lo mismo que un inversor puede poner en duda la resultado de una IA que le indique que tiene que cambiar su cesta de inversiones, sin explicar los motivos que le llevan a sugerir dicho cambio", concluye Cordero.

Síguenos en Facebook: La Prensa Oficial y en Twitter: @laprensaoem

Policiaca

[Video] Catean domicilio en Tlalne donde familia mató a rocazos a un perro

De acuerdo a la organización civil Mundo Patitas por la muerte violenta del canino hay dos personas lesionadas

Policiaca

Presuntos extorsionadores incendian autobús de pasajeros en Ecatepec

Se trata de la segunda unidad de transporte público que es incendiada en Ecatepec en una semana

Finanzas

Insabi debe 2 mil 711 mdp a sus proveedores

Al menos seis farmacéuticas han resultado afectadas, dice una auditoría independiente al instituto

Sociedad

Incautación de drogas se desploma con la 4T

En municipios violentos como Reynosa, Fresnillo, Manzanillo y Culiacán, los decomisos son casi nulos

Mundo

EU acelera juicios de asilo y expulsiones de migrantes

El gobierno de Biden busca saltar los tribunales de inmigración para una “deportación acelerada”

Círculos

La marca de whisky Johnnie Walker presenta su nueva campaña Astronauta

Bajo la campaña Astronauta, la firma inauguró una pop up store en un famoso penthouse de la colonia Roma

Gossip

Tras superar el Covid, Jaime Flores estará en La Bohemia del Cantoral

El cantautor compartirá escenario con Luis Carlos Monroy y Raúl Ornelas este 30 a julio