argumentos no responsables
Batya Friedman y Peter Kahn Jr postularon que la intencionalidad es una condición necesaria para la responsabilidad moral y que los sistemas informáticos concebibles en 1992 en material y estructura no podrían tener intencionalidad .6
Arthur Kuflik afirmó que los seres humanos deben asumir la última responsabilidad moral por las decisiones de una computadora, ya que son los seres humanos quienes diseñan las computadoras y escriben sus programas. Propuso además que los seres humanos nunca pueden renunciar a la vigilancia de las computadoras.
Frances Grodzinsky et al. Considerados sistemas artificiales que podrían modelarse como máquinas de estado finito. Ellos postularon que si la máquina tenía una tabla de transición de estado fijo, entonces no podría ser moralmente responsable. Si la máquina pudiera modificar su mesa, entonces el diseñador de la máquina todavía conserva cierta responsabilidad moral.
Patrick Hew argumentó que para que un sistema artificial sea moralmente responsable, sus reglas de conducta y los mecanismos para suministrar esas reglas no deben ser suministrados enteramente por seres humanos externos. Además, argumentó que estos sistemas son una diferencia sustancial de las tecnologías y la teoría existentes en 2014. Un sistema artificial basado en esas tecnologías no tendrá responsabilidad por su comportamiento. La responsabilidad moral se reparte entre los seres humanos que crearon y programaron el sistema.
Comentarios
Publicar un comentario