Fujitsu y la Universidad de Hokkaido desarrollan una tecnología de IA y aprendizaje automático

Anuncian el desarrollo de una nueva tecnología basada en el principio de la “Inteligencia Artificial Explicable”, que presenta automáticamente a los usuarios los pasos necesarios para conseguir un resultado deseado, basándose en la información de la IA sobre los datos.

Publicado el 03 Mar 2021

Fujitsu y la Universidad de Hokkaido desarrollan una tecnología de IA y aprendizaje automático

La “IA Explicable” representa un área de creciente interés en el campo de la inteligencia artificial y el aprendizaje automático. Aunque las tecnologías de IA pueden tomar decisiones automáticamente a partir de los datos, la “IA Explicable” también proporciona razones individuales para estas decisiones, lo que ayuda a evitar el llamado fenómeno de la “caja negra”, en el que la IA llega a conclusiones a través de medios poco claros y potencialmente problemáticos. Aunque ciertas técnicas también pueden proporcionar hipotéticas mejoras que se podrían obtener cuando se produce un resultado no deseable, éstas no proporcionan ningún paso concreto para mejorar.

Por ejemplo, si una IA que emite juicios sobre el estado de salud de una persona y determina que no es saludable, la nueva tecnología puede aplicarse para explicar primero la razón del resultado a partir de datos de exámenes médicos como la altura, el peso y la presión arterial. A continuación, puede ofrecer además al usuario sugerencias específicas sobre la mejor manera de recuperar la salud, identificando la interacción entre un gran número de complicados elementos de los exámenes médicos y a partir de datos anteriores, mostrando pasos específicos para conseguir mejorar, teniendo en cuenta la viabilidad y la dificultad de la implementación.

Esta nueva tecnología ofrece la posibilidad de mejorar la transparencia y la fiabilidad de las decisiones tomadas por la Inteligencia Artificial, lo que permitirá a más personas en el futuro interactuar con las tecnologías que la utilizan, ofreciendo una sensación de confianza y tranquilidad.

En la actualidad, las tecnologías de aprendizaje profundo ampliamente utilizadas en los sistemas de IA que requieren tareas avanzadas, como el reconocimiento facial o la conducción automática, toman automáticamente diversas decisiones basadas en una gran cantidad de datos utilizando una especie de modelo predictivo de “caja negra”. Sin embargo, en el futuro se debe garantizar la transparencia y la fiabilidad de los sistemas de Inteligencia Artificial y esto, se convertirá en una cuestión importante para que la IA realice propuestas fundamentales para la sociedad. Esta necesidad ha hecho que aumente el interés y la investigación en tecnologías de “IA Explicable”.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

D
Redacción Data Center Market

Artículos relacionados

Artículo 1 de 2