Si una máquina autónoma mata a un humano, ¿de quién es la culpa?

máquinas-autónomas

The Guardian (Reino Unido) publicó un artículo haciendo la pregunta: Si una máquina autónoma mata a un humano, ¿de quién es la culpa? Parecerá una pregunta demasiado futurista, pero resulta que la Real Academia de Ingeniería hizo un reporte donde explora las implicaciones legales, éticas y sociales de cederle todo el control a sistemas autónomos.

Esto viene a que las máquinas autónomas (realmente independiente del ser humano) en teoría pueden adaptarse, aprender y tomar decisiones basadas en su experiencia previa.

Aunque suene a película futurista o de ciencia ficción, la pregunta hace mucho sentido cuando una sociedad trata de prevenir y proteger a sus integrantes. Por ejemplo, en Dinamarca el metro de Copenhague funciona sin ningún piloto abordo por lo que se deduce que el futuro está muy cercano y no está muy lejos el momento en que habrán máquinas autónomas.

Sin negar el beneficio que esto puede llevar incluso a nivel de la medicina y la cirugía, los automóviles y el consumo de combustibles, la seguridad en el hogar y tantas cosas más ¿qué parámetros tenemos para saber si una máquina es confiable o no?

En el plano legal, resultaría muy difícil deducir responsabilidades a una máquina que no tiene ni conciencia ni concepto de sus actos. Basados en la posibilidad tan alta que existe que se fabriquen y usen máquinas autónomas sin la supervisión constante del humano, la Real Academia de Ingeniería se a adelantado a exponer las consideraciones legales.

Y otro aspecto más, están tratando de adelantarse a cualquier tipo de situación inesperada como podría ser que quien pueda crear una máquina semejante que pueda beneficios reales a la humanidad, no lo haga por la incertidumbre legal de las posibles consecuencias.

Un planteamiento muy interesante…

Imagen: en.wikipedia.org

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

8 + 2 =