IA ética “Human-in-the-Loop” para robots sociales

Este sitio web tiene como objetivo proporcionar una plataforma de colaboración participativa para recopilar opiniones humanas sobre lo que debe hacer un robot social frente a ciertos dilemas éticos desafiantes. La encuesta está diseñada para integrar juicios éticos humanos en la recopilación de datos para el aprendizaje automático de los robots. El proyecto refleja la metodología de “Human-in-the-loop” que actualmente está reestructurando el campo del aprendizaje automático de los robots. Según Robert Monarch, autor de Human-in-the-Loop Machine Learning (Manning Publishing, 2021), “El aprendizaje automático ‘Human-in-the-loop’ es un conjunto de estrategias donde se combinan la inteligencia humana y la de la máquina en aplicaciones que utilizan IA.” Una de estas estrategias es utilizar encuestas simples en la red para recopilar datos de capacitación para el aprendizaje activo supervisado de la máquina o robot. Basándonos en una gran cantidad de datos de capacitación que reflejan las sensibilidades humanas, las emociones humanas, las virtudes y los valores humanos, podemos diseñar un algoritmo de aprendizaje automático que capacitará a los robots autónomos para que actúen y piensen como lo hacen los seres humanos.

Nuestra encuesta se divide en dos categorías: robots sanitarios y robots de respuesta a desastres. Ambos tipos de robots están actualmente en uso y es probable que se conviertan en sofisticados robots autónomos en un futuro próximo. ¿Cómo podremos confiar en estos robots autónomos para que tomen el tipo de decisiones éticas que se alinearían con los valores y los sentimientos humanos? Los escenarios que diseñamos son dilemas morales integrados en contextos socioeconómicos con diversas relaciones interpersonales, y las elecciones de los participantes pueden reflejar sus inclinaciones emocionales y sus consideraciones éticas. Al participar en nuestra encuesta, usted podrá aportar su opinión a la capacitación de la máquina o robot para que aprenda a tomar decisiones correctas.

Todos esperamos que algún día, cuando haya robots sociales autónomos que tomen decisiones para servirnos o salvarnos, éstas sean bienvenidas por nosotros. El proporcionar esta plataforma para recopilar sus opiniones y elecciones, es un primer paso crucial para que podamos tener datos de capacitación útiles para el diseño robótico del futuro. Esperamos que sea sincero al responder y tome en serio estos cuestionarios para que nuestros datos reflejen con veracidad las diferentes preferencias y juicios de valor que cada uno de ustedes hace. Le agradecemos de antemano su cooperación y ayuda. 

 

TOME LA ENCUESTA

La encuesta consiste en algunas preguntas demográficas seguidas de cuatro secciones con 15 preguntas sobre cada uno de los escenarios que se enumeran a continuación. Puede optar por salirse de la encuesta después de cada sección.

Iniciar la EncuestaOpens in new window

robot assisting an elderly patient to stand

Suicidio asistido por robot

Los siguientes escenarios reflejan los difíciles dilemas que nuestros futuros robots autónomos podrían enfrentar algún día. Por un lado, un robot debe obedecer las órdenes de su amo. Por otro lado, un robot no debe dañar a un ser humano. En general, un robot no debe infringir la ley aunque no pueda ser considerado legalmente responsable. La ley está en contra del suicidio asistido. Pero en circunstancias como las siguientes, ¿cree usted que el robot puede romper las reglas o quebrantar la ley? 

a robot thinking

¿La honestidad es siempre la mejor política?

Los siguientes escenarios representan conflictos derivados de la virtud de la honestidad frente a la virtud de la lealtad de nuestro futuro robot autónomo. ¿Debería el robot decir siempre la verdad y actuar según su virtud de integridad? Si el amo le pide al robot que oculte la verdad, ¿debe obedecerlo incluso si el amo está violando la ley? En algunos casos, por ejemplo, cuando decir la verdad podría causar daño psicológico al amo, ¿debe permitirse que el robot diga mentiras piadosas? ¿Queremos diseñar nuestros robots autónomos para que estén equipados con la capacidad de decir mentiras en determinadas circunstancias?

robot coming out of a burning building

Robot de rescate y el salvar vidas

Los siguientes escenarios se asemejan a los clásicos dilemas como “El dilema del tranvía” o “El dilema del bote salvavidas” en la ética. Cuando hay varias vidas en riesgo y el robot de rescate debe elegir a quién salvar primero, ¿qué criterio debería utilizar para su elección? ¿Debe el género, la edad, el estatus social, el mérito, etc. jugar un papel determinante? ¿Debería la mera cantidad de vidas dictar qué grupo de personas salvará primero el robot? ¿Debería ser la probabilidad de supervivencia de la víctima el factor decisivo en la decisión que tome el robot de rescate? 

robot standing in front of panels depicting disasters

La elección ética de los robots de respuesta a desastres

Los siguientes escenarios representan situaciones concebibles donde los robots de respuesta a desastres con capacidades de deliberación y acción autónomas podrían enfrentarse en casos de tomas de decisión defíciles. Algunos escenarios involucran la elección del robot entre obedecer una orden humana directa que desafía su propio estándar de lo correcto y lo incorrecto, y actuar usando su mejor juicio. Otros escenarios requieren que el robot autónomo actúe sin supervisión humana debido a la urgencia de la situación. ¿Deberían los estándares éticos internos del robot prevalecer sobre su obligación de cumplir con la ley existente o de obedecer una orden directa de su supervisor humano?


Principal Investigators

Dr. JeeLoo Liu

Professor
Department of Philosophy, CSUF 
Contact email: jeelooliu@gmail.com 

Dr. Yu Bai

Associate Professor
Computer Engineering Program, CSUF
Contact email: ybai@fullerton.edu