Que la ética cale hasta el código

Share on twitter
Share on whatsapp
Share on facebook
Share on linkedin
La ética, esa disciplina que estudia el bien y el mal, que analiza la moral y el comportamiento humano será la pieza clave de la convivencia con la Inteligencia Artificial (IA).

Este es un artículo publicado por Javier Murillo en El Financiero.

La ética, esa disciplina que estudia el bien y el mal, que analiza la moral y el comportamiento humano será la pieza clave de la convivencia con la Inteligencia Artificial (IA). Por la dificultad que esto conlleva, se dice que es comparable con otros grandes retos científicos, como ha sido explicar el origen del universo o la estructura de la materia.

Dentro de algunos años, a cada paso que demos, encontraremos un dilema ético frente a la IA. Por ejemplo, si ya hay asistentes de salud sintéticos y programados para atender a los humanos porque son incansables y entregados, ¿Qué o quién debe regular el papel de esos enfermeros?

Ahora imagine que la IA, dentro de unos cuantos años, supondrá la interacción humana con dispositivos que hoy no podemos ni imaginar, pero que estarán presentes en los espacios productivos (es decir, en el trabajo del futuro), en los hogares, en los hospitales, en la infraestructura pública y en todo círculo social. ¿En qué nos guiaremos para regularlos?

Uno de los miedos actuales es que surja el Estado totalitario y asfixiante que George Orwell pintó en su novela “1984”: el Big Brother, omnipresente y omnipotente, controlando cada aspecto de la vida de los ciudadanos. Pero ya hay algunas similitudes. Somos vigilados, en la vía pública, por sistemas de cámaras conectados con estaciones de policía. Ya pueden reconstruir nuestro día y precisar nuestra ubicación por las aplicaciones que abrimos y usamos. Hackear nuestro teléfono y correo para obtener datos personales. Si vamos a un laboratorio pueden hacernos una prueba genética que revele nuestro historial médico y familiar.

Pensar en ética en este estado incipiente de la IA aunque puede parecer exagerado, es fundamental porque hay casos como el de las redes sociales que ponen en entredicho lo que es o no ético: han dejado en manos de la IA la sugerencia de temas que nos proponen leer, ver, coleccionar y consumir. La cuestión es que ese algoritmo está sesgado, pues recibe dinero de entidades que construyen contenidos y quieren difundirlos al máximo.

Las preguntas, en este punto, son muchas: ¿A todos ellos quién los regula?, ¿En dónde están las leyes que protegen al ciudadano frente a cualquier agenda?, ¿Qué conceptos éticos deben prevalecer frente a la disrupción tecnológica? Cada acción y sus consecuencias implicarán un dilema en el que la respuesta impactará en el bien colectivo y en el bienestar individual.

Por lo mismo, si la vida humana dependerá tanto de la IA, ¿No sería mejor que los códigos de la IA más estratégica fueran transparentes para que ningún fabricante pudiera establecerse como el gran controlador de vidas en el mundo?

Si los humanos en general no nos podemos poner de acuerdo en el sentido común, pretender que la IA tenga una línea ética basada en este sentido, es más que peligroso. Por lo mismo, entre los esfuerzos que se han llevado a cabo a escala mundial en temas de IA y ética, en 2017 se firmó la “Declaración de Barcelona para un desarrollo y uso adecuados de la inteligencia artificial en Europa”. Entre otras cosas, esta declaración destaca seis reglas que se deberían estandarizar para el uso de la IA: prudencia, fiabilidad, rendición de cuentas, responsabilidad, autonomía limitada y el papel del ser humano.

Entre más pronto comencemos a regular la IA, más preparados estaremos para afrontar ese futuro automatizado e hipertecnológico. Y la ética es la puerta de abordaje.

Por: Javier Murillo

Vía: El Financiero