6 August 2007

Paco responde... robots estivales.

Querido Francisco Capella.

Como sé que una de tus especialidades, además de la ética capellística, es la inteligencia artificial, quería preguntarte
¿Cuáles crees que deberían ser las consideraciones y variables a tener en cuenta al hablar del estatus ético de robots?

Firmado: R2D2


Querido erredosdedos,

Depende de la complejidad del robot o de lo que se entienda por robot.

Un robot actual es una máquina cibernética no orgánica que recibe y procesa información y tiene actuadores para ejecutar tareas en el mundo real. Su inteligencia es muy limitada y no tienen intereses, sentimientos, emociones. No pueden ser sujetos éticos, no son capaces de argumentar éticamente. Son herramientas utilizadas por los seres humanos, cuyos propietarios (y tal vez sus vendedores o sus productores según las cláusulas contractuales) asumen la responsabilidad por los daños que causen sus robots a otros.

Los seres vivos también son máquinas (hacen cosas, son agentes autónomos) cibernéticas (reciben y procesan información utilizando ciclos de realimentación); pero son orgánicos, están constituidos por materia autopoyética: su actividad principal consiste en reconstruirse para mantenerse y reproducirse. Mientras que un robot tiene una inteligencia artificial al menos parcialmente diseñada por un humano, la actividad cognitiva y emocional de los seres vivos surge espontáneamente como herramienta de supervivencia. No es primero el verbo y luego la
materia sino justo al revés.

Un robot sofisticado podría hacer más cosas de forma independiente, sin necesidad de supervisión humana. Para eso debe tomar decisiones con información incompleta, tal vez parcialmente inconsistente, y quizás tenga conflictos acerca de múltiples objetivos mutuamente incompatibles a seguir; para gestionar estas situaciones necesitará algo parecido a un sistema emocional, prioridades, preferencias, intereses propios si debe cuidar de sí mismo. Tal vez entonces alcancen la inteligencia y la sensibilidad necesaria para considerarlos agentes intencionales y sujetos éticos. Sólo tiene sentido aplicar leyes a quienes pueden entenderlas y adaptar su conducta en consecuencia según los incentivos creados por el sistema legal.

Las famosas leyes de la robótica de Asimov y sus relatos relacionados con ellas muestran lo complejo y conflictivo que es construir un sistema cibernético que pueda ser usado como herramienta y a la vez cuidar de sí mismo.

1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

¿Qué se entiende por daño? ¿Algo físico objetivo o algo psicológico subjetivo? ¿Puede un robot practicar la cirugía? Existiendo miles de millones de seres humanos, seguro que algunos están sufriendo daño en cada momento: ¿qué debe hacer el robot frente a tantas tareas? ¿Puede el
robot causar daños a uno para evitar el daño de muchos?

¿Qué pasa si el robot no entiende las órdenes de los seres humanos, si estas son ambiguas sin posibilidad de aclaración, o si son contradictorias?

¿Cómo se decide respecto al conflicto entre la propia protección y el cumplimiento de tareas encomendadas?

1 comment:

Freman said...

La respuesta es de una simpleza hilarante, sinceramente. El señor Capella, ¿profesa algún tipo de animismo o dualismo filosófico?

Por supuesto que es adecuada para el tipo de robots que existe ahora mismo, pero si sólo de eso se trataba, no había que irse al Pisuerga en busca de agua.