¿Puede un robot ser ético?

¿Puede un robot tener sentimientos? ¿Puede un robot ser creativo? ¿Puede un robot amar? Todas estas preguntas, que podrían parecer absurdas si las pronunciamos en alto, están siendo debatidas en el momento actual por científicos prestigiosos en los más elevados foros internacionales.

¿Puede un robot ser ético?

/por Idoia Salazar/

¿Puede un robot tener sentimientos? ¿Puede un robot ser creativo? ¿Puede un robot amar? Todas estas preguntas, que podrían parecer absurdas si las pronunciamos en alto, están siendo debatidas en el momento actual por científicos prestigiosos en los más elevados foros internacionales. ¿Qué está ocurriendo? ¿Realmente nos estamos planteando que las máquinas lleguen a tener peculiaridades hasta ahora únicamente atribuibles a los humanos? Partimos de un hecho claro. La revolución tecnológica que estamos viviendo en la actualidad no permite cerrar ninguna posibilidad por inverosímil que nos pueda parecer.

Robots humanoides, sistemas de inteligencia artificial, máquinas pensantes… todos estos términos se entremezclan en la imaginación de la sociedad y, junto con informaciones a veces confusas e incompletas, pero en cualquier caso impactantes y cuanto menos curiosas, contribuyen a crear cierta alarma social en algunos; y en otros, expectación desmesurada por saber desde ya cuál será nuestro cinematográfico futuro.

Para aquellos que aún no están muy familiarizados con estas tecnologías, tan solo recalcar la diferencia entre los conceptos de robot humanoide —aquella máquina con apariencia humana que puede llevar o no integrado un sistema de inteligencia artificial— y sistemas de inteligencia artificial, que son algoritmos o software, es decir, un programa informático, que se puede implementar en cualquier cosa. Por ejemplo: un simple bolígrafo. Por lo tanto, un robot humanoide no tiene por qué tener inteligencia artificial, y sí la podría tener la taza con la que te tomas el café cada mañana. Sin embargo, parece que nos hace gracia jugar a recrearnos a nosotros mismos de manera artificial, incluso a nivel intelectual; incluso a nivel emocional. Es un reto. Y a los humanos nos encantan los retos. La tecnología ahora la tenemos, y si podemos técnicamente, ¿por qué no?

Una vez que ya tenemos al robot humanoide, algunos incluso ya con músculos y piel artificial, llega el momento del intento de equiparación de su yo interior.  Los desarrollos actuales de los sistemas de IA en deep learning —aprendizaje autónomo, independiente de su programación inicial— ya están dando sus frutos.  Ya existen algoritmos que toman decisiones, de manera independiente. El problema es que aún no explican cómo han llegado a su decisión, pero… dale tiempo. Quizá unos años, o unos días. La investigación sigue su curso y no hay duda de que se resolverá en breve. Una vez tengamos esto, la gran pregunta que da título a este artículo será aún más acuciante de resolver.

Son muchos los pensamientos filosóficos que se han escrito ya respecto a si una máquina, robot o inteligencia artificial (sería este último realmente el término correcto) puede llegar a tener ética, teniendo en cuenta que es capaz de tomar decisiones de manera autónoma. En ellos se teoriza sobre el concepto de ética: «conjunto de normas morales que rigen la conducta de la persona en cualquier ámbito de la vida» (según la RAE). Incluso si se quitara la palabra persona de la definición, para ser considerado ético el algoritmo debería ser capaz de distinguir entre el bien y el mal. Eso significa que debería tener conciencia. Pero, ¿qué es en realidad la conciencia? ¿Y el alma? Y, ¿seríamos capaces de recrearlos de manera artificial? Como se puede ver, las tecnologías derivadas de la llamada inteligencia artificial llegan a tocar las preguntas más básicas de la humanidad. Si nos quedáramos aquí, mi opinión es que entraríamos en un ciclo sin fin de preguntas y respuestas que posiblemente llenen muchas salas de conferencias y libros, pero que finalmente conducirán al abismo misterioso de lo simplemente incomprensible para nuestros limitados intelectos.

Apuesto por una respuesta más práctica, con humildad y, desde luego, sin menospreciar los pensamientos filosóficos al respecto, los cuales considero muy interesantes y necesarios.  Es obvio que, si la máquina es técnicamente capaz de tomar decisiones de manera autónoma —que no automática— y esas decisiones se ejecutan, necesitará aprender unas normas. Un código ético específico adaptado a cada tipo de sociedad, a cada cultura, partiendo del hecho de que lo que es considerado bueno en España, puede no serlo en Japón. En este sentido, en la actualidad es técnicamente posible, aunque a un nivel aún básico, implementar ciertas normas éticas en el algoritmo en función de la finalidad del propio algoritmo. En un futuro próximo, muy posiblemente las empresas que actualmente se dedican a estos desarrollos técnicos, hagan grandes avances. Sin embargo, a lo mejor nuestra preocupación debería bajar un peldaño y volverse hacia el que originalmente, por pura descripción conceptual, es señalado por el diccionario como sujeto de la práctica de la ética: la persona. Es aquí, en el programador inicial del algoritmo, o más bien, y por ser más precisos, en la política o estrategia en IA de cada empresa que desarrolla y usa estas tecnologías de gran impacto, donde muy posiblemente se halle el foco en el que deberían centrarse los estudios en ética en inteligencia artificial.  En este sentido la formación de los empleados de estas compañías que tengan contacto con estas técnicas en ética específica en sistemas de IA debería ser una premisa. Es muy necesario que estos profesionales conozcan, de primera mano, las importantes (o no tanto, en función del caso) implicaciones sociales que pueden tener sus acciones) y así puedan ejercer de manera eficiente, con la seguridad que da la educación, las labores de control de su trabajo. Una vez más esta palabra, educación, considero que vuelve a ser la clave para minimizar el impacto social negativo de este apasionante desarrollo tecnológico.

En el camino para conseguir un sistema de IA ético, algunos expertos hablan también de la necesidad de una figura, quizá dependiente de un organismo público, que se encargara de supervisar los algoritmos más avanzados en toma de decisiones autónomas. La labor de estos inspectores  guardianes, inquebrantables a los vaivenes empresariales, de un código ético específico de la IA, podría ser realmente interesante.

Como vemos, aún queda mucha investigación que realizar en este campo de la ética en la inteligencia artificial. Sin embargo, creo que ya podemos dar respuesta a la pregunta que se plantea en el título de este artículo, si nos referimos a ella de una manera práctica (no filosófica). ¿Puede un robot (concepto correcto: un sistema de inteligencia artificial) actuar de forma ética? Sí. Podrá cumplir las normas sociales de conducta en una cultura concreta y en una situación concreta. Podrá tomar decisiones evitando, conscientemente, hacer el mal; sin los sesgos que caracterizan en muchas ocasiones a estas mismas acciones humanas. Es cierto que en la actualidad la carga de datos —principalmente los procedentes de bases de datos históricas— con que se enseña a estos algoritmos puede causar también algún sesgo en la toma de decisiones de la máquina. Pero es un problema que se ha detectado a tiempo y en cuya solución ya se está trabajando. Muy posiblemente, y por muy raro que suene ahora, en un futuro próximo, las personas confiaremos más en las decisiones de un algoritmo que en las de otro de nuestros iguales.


Idoia Salazar es doctora en periodismo y profesora en los grados internacionales en la Facultad de Comunicación y Humanidades de la Universidad CEU San Pablo, investigador principal del Grupo SIMPAIR (Social Impact of Artificial Intelligence and Robotics) y especializada en ética en la inteligencia artificial.Desarrolló su carrera profesional en los medios digitales del Grupo PRISA, en los que fue responsable en el área de I+D, participando en proyectos competitivos de la Unión Europea relacionados con tecnologías de web semántica y su implementación en productos del grupo. Es autora del libro Las profundidades de Internet: Accede a la información que los buscadores convencionales no encuentran y descubre el futuro inteligente de la Web(2006), así como de numerosos artículos en medios de comunicación divulgativos.

Acerca de El Cuaderno

Desde El Cuaderno se atiende al más amplio abanico de propuestas culturales (literatura, géneros de no ficción, artes plásticas, fotografía, música, cine, teatro, cómic), combinado la cobertura del ámbito asturiano con la del universal, tanto hispánico como de otras culturas: un planteamiento ecléctico atento a la calidad y por encima de las tendencias estéticas.

0 comments on “¿Puede un robot ser ético?

Deja un comentario

A %d blogueros les gusta esto: