Por una Inteligencia Artificial segura, transparente y efectiva

Cada día más delegamos actividades y funciones de nuestra vida a la inteligencia artificial para tomar decisiones, para informarse y comunicarse, pero hasta qué punto podemos confiar en estos algoritmos.

El sesgo algorítmico puede llevar a que, por ejemplo, los activistas de las redes sociales y que los grupos de odio sigan publicando sin control.

A medida que los problemas causados por el sesgo algorítmico han ido saliendo a la superficie, los expertos han propuesto todo tipo de soluciones sobre cómo hacer que la inteligencia artificial sea más justa y transparente para que funcione para todos.

Entre esas se ha planteado someter a los desarrolladores de IA a auditorías de terceros, en las que un experto evaluaría su código y datos de origen.

De esta manera podría asegurarse de que el sistema resultante no perpetúa los prejuicios y conductas reprochables de la sociedad.

Incluso desarrollar pruebas para asegurarse de que un algoritmo de IA no trata a las personas de forma diferente según la raza, el género o la clase socioeconómica.

Lee aquí: La inteligencia artificial que descifra el llanto de los bebés

Una nueva propuesta a favor de la IA

inteligencia-artificial-cerebro-mano.jpg
Es por esto que ahora los científicos de IBM tienen una nueva salvaguardia que dicen que hará que la inteligencia artificial sea más segura, transparente, justa y efectiva.

Proponen que, justo antes de que los desarrolladores empiecen a vender un algoritmo y publiquen una Declaración de Conformidad del Proveedor (SDoC).

Esto quedaría como informe o manual de usuario.

El SDoC mostraría qué tan bien se desempeñó el algoritmo en las pruebas estandarizadas de desempeño, imparcialidad y factores de riesgo, y medidas de seguridad.

¿Podemos confiar en la Inteligencia Artificial?
El mismo estaría a disposición de cualquiera que esté interesado.

Mediante un comunicado, los científicos de IBM argumentan que este tipo de transparencia podría ayudar a construir la confianza pública.

Además de tranquilizar a los clientes potenciales de que un algoritmo en particular hará lo que se supone que debe hacer sin fastidiar a nadie basándose en datos de entrenamiento sesgados.

Si un desarrollo en particular parece que va a fastidiar a alguien, el cliente (e incluso los ciudadanos interesados) idealmente serían capaces de decir a partir de los resultados de la prueba y optar por no ponerlo en uso.

En su documento, los científicos de IBM se basan en los ejemplos dados por SDoCs en otras industrias, que rara vez son requeridas por la ley, pero son alentadas para evitar que los clientes potenciales se dirijan a competidores más transparentes.

Te puede interesar: Por medio de Inteligencia Artificial: Google sueña con reinventar la forma de componer música

Siguen las interrogantes

Los consumidores pueden confiar en los frenos de un coche, en las capacidades de piloto automático de un avión, en la resistencia de un puente porque estas cosas se prueban exhaustivamente basándose en métricas estándar bien conocidas.

Sin embargo, no existe una prueba equivalente para asegurarse de que las herramientas de inteligencia artificial funcionen como se afirma.

Los investigadores proponen que un SDoC de IA respondería a preguntas como:

¿Se revisó el conjunto de datos y el modelo por sesgos?”

¿Se revisó la robustez del servicio contra ataques adversarios?”
Inteligencia artificial vs ataques informáticos
En general, las preguntas evaluarían un algoritmo basado en su desempeño.

Y no precisamente en verificar sus componentes o su código como lo haría un auditor.

Lee aquí: El nuevo desafío a la inteligencia artificial que propone Google

Isabel Cisneros

The post appeared first on La Calle TV.

Fuente: este post proviene de La Calle TV, donde puedes consultar el contenido original.
¿Vulnera este post tus derechos? Pincha aquí.
¿Qué te ha parecido esta idea?

Esta idea proviene de:

Y estas son sus últimas ideas publicadas:

Recomendamos

Relacionado

Videogames

Deep mind, la inteligencia artificial de Google a favor de los videojuegos

La inteligencia artificial (IA) continúa imparable, tanto así que la compañía DeepMind, filial de Google desde el 2014, ha desarrollado un sistema capaz de aprender por sí solo y de quedar por encima del 99,8 % de los jugadores de StarCraft II. La IA ha llevado a desarrollar la facultad de aprender, entender, razonar, tomar decisiones y formarse ante una determinada realidad.    Esta ha creado un ...

Featured Noticias bebés ...

La inteligencia artificial que descifra el llanto de los bebés

Ana Laguna Pradas, científica de datos en BBVA Data & Analytics., intuyó que el llanto de los bebés tienen patrones y que la inteligencia artificial puede detectarlos. “Había trabajado en traducción automática, y el llanto del bebé no deja de ser otro medio de comunicación oral. Además, si Jane Goodall comprende el lenguaje de los chimpancés, ¿por qué no intentar traducir las necesidades de ...

CULTURA PARALELA Actualidad Arte ...

'Suspring', el primer cortometraje escrito por una inteligencia artificial

La película de 9 minutos se ha presentado en el Festival de Ciencia-Ficción de Londres. ¿Puede una Inteligencia Artificial escribir un guión cinematográfico? Esa es la pregunta que el director Oscar Sharp compartió con su colaborador Ross Goodwin, investigador de la Universidad de Nueva York. Juntos desarrollaron el proyecto que acabaría dando como fruto el cortometraje Sunspring, estrenado en el ...