CODETIO
  • Codetio
  • Encuentra Talento
  • Eres talento
  • Coaching de Desarrollo Profesional
  • Quiénes somos
  • Blog
  • Contacto

Hablemos de ética en la Inteligencia Artificial

15/2/2019

0 Comentarios

 
Imagen
¿Realmente podemos hablar de ética tratándose de robots y otros entes con inteligencia artificial?.
Si pensamos que uno de los objetivos más ambiciosos de la ciencia es la creación de máquinas cuya inteligencia sea lo más parecido a la humana, la máquina debería regirse por los mismos requisitos que son demandados en una persona al realizar por ejemplo su trabajo, estaríamos hablando del sentido de la responsabilidad, la transparencia, productividad, incorruptibilidad, etc.
 
Por otra parte, para que podamos hablar de ética en la Inteligencia Artificial  sería necesario que la máquina estuviese dotada de total autonomía y esto nos plantearía otro interrogante no menos inquietante, ¿sería conveniente dotarlas con plena capacidad para la toma de decisiones?.
Numerosos investigadores han puesto de manifiesto cómo las máquinas inteligentes son capaces de mejorarse a sí mismas hasta el punto de que los humanos no podrían evitar que lograsen sus objetivos. El filósofo sueco Nick Brostom habla del resultado destructivo de una “super-inteligencia” y sostiene que “ tendría la capacidad de provocar la extinción humana”.
Sin embargo, los robots no tienen valores ni consciencia más allá de lo que se les programa, es decir, no podríamos asignarles un comportamiento moral en sí mismos sino que los valores y principios éticos que los sustentan dependerían en última instancia de los humanos en cuanto diseñadores, desarrolladores y usuarios.
La cultura legislativa europea en esta materia ha llevado al Parlamento europeo a aprobar un informe sobre Robótica mediante la elaboración de un Código Ético de Conducta. En él se contemplan una serie de principios fundamentales relacionados con  la dignidad humana, la privacidad, la libertad, seguridad, búsqueda del bien común, etc.
Dice Jesús Aguilera, director de soluciones de negocio de SAS en España “ hay que inyectar la ética a los algoritmos, de manera que si se solicita una hipoteca no se discrimine a esa persona por su edad, sexo o etnia “. Es evidente que un robot se alimenta de la información con la que se le programe, por lo tanto esa información debe atenerse a unos principios ; en palabras del propio autor “ un algoritmo nunca debe estar sesgado por su condición racial o social “.
Imagen
Está claro que, en su estado actual, la máquina dotada con inteligencia artificial no piensa. Un robot obedece a una serie de rutinas que, de momento, sólo le permiten interactuar con nosotros los humanos dentro de unos límites concretos pero incapaz de interactuar con autonomía para poder entablar una verdadera relación social.

Sin embargo, el gran reto de la ciencia es dotar a los sistemas de una inteligencia similar a la humana o lo que es lo mismo “dotarlos de sentido común “ en palabras de López Mántaras, director del Instituto de Investigación en Inteligencia Artificial. Estaríamos hablando de un paso más en la escalada que supone el desarrollo de la Roboética no exento de riesgos. Algunos estudios han llegado a hablar de “ El Factor Frankenstein “ , incluso se ha llegado a decir que, en un futuro, el orden social podría verse invertido “ nosotros seríamos los esclavos y los ordenadores los jefes “.
Imagen
​
​El gran desafío en los avances de este tipo de inteligencia no está en pensar como un humano sino en actuar como tal. Esto nos lleva a entornos en los que se trabaja para dotar a los sistemas de toda una serie de redes neuronales artificiales capaces de imitar el pensamiento mediante aprendizaje. A partir de aquí, entraríamos en un nuevo escenario cuyo debate estaría centrado en la responsabilidad o no de los sistemas inteligentes ante aquellas respuestas dadas por los mismos en diferentes situaciones. Ello ha hecho necesario que el legislador tome en consideración todas las consecuencias que de ello podrían derivarse. Por eso el Parlamento Europeo ha dictado una serie de recomendaciones que permitan disponer de cierta normativa en materia de responsabilidad jurídica y deontológica de los robots.
 
En el texto mencionado anteriormente encontramos dos cuestiones relacionadas con lo hasta aquí expuesto:
 
1- "...que en el actual marco jurídico, los robots no pueden, en sí mismos, ser considerados responsables de los actos u omisiones que causen daño a terceros; que las normas vigentes en materia de responsabilidad abarcan aquellos casos en los que es posible hasta un agente humano concreto como el fabricante, el propietario o el usuario.”.
​
2- “En el supuesto de que un robot pueda tomar decisiones autónomas, la normativa tradicional no bastará para establecer su responsabilidad, ya que con ella no se puede ni determinar la parte que ha de hacerse cargo de la indemnización, ni exigir a dicha parte que repare el daño ocasionado”.
 
En conclusión, nos enfrentamos a muchos interrogantes más allá del desarrollo tecnológico, hasta adentrarnos en aspectos que forman parte de la rama más filosófica de la materia. La respuesta a estos debates éticos no es fácil ni siquiera podemos anticiparla pero algo parece ser importante, el simple hecho de reflexionar sobre ello nos hace tomar conciencia de que la humanidad tiene ante sí un desafiante futuro al que tendrá que hacer frente con la búsqueda de nuevas soluciones.
0 Comentarios

Tu comentario se publicará una vez que se apruebe.


Deja una respuesta.

Imagen





C/ Mieses, 5, 28220 Majadahonda, Madrid


Política de privacidad

© 2021 CODETIO all rights reserved
  • Codetio
  • Encuentra Talento
  • Eres talento
  • Coaching de Desarrollo Profesional
  • Quiénes somos
  • Blog
  • Contacto