El robot si tiene responsabilidad penal

Columnas de Opinión
Tamaño Letra
  • Font Size

Escrito por:

Melchor Tirado Torres

Melchor Tirado Torres

Columna: Derecho Penal

e-mail: [email protected]
La inteligencia creo “la inteligencia artificial”;  la inteligencia: es la facultad de la mente que permite aprender, entender, razonar, tomar decisiones y formarse una idea determinada de la realidad, siempre  está asociada con la actividad cerebral de los humanos (y de otros seres vivos).


Se encuentra en desarrollo muy  avanzado “la inteligencia artificial”, definida como la creación de programas de computación (software)  que tienen como propósito imitar las funciones “cognitivas” de la mente humana, las cuales integradas con estructuras electro-mecánicas (hardware ) crean el prototipo de la máquina; la inteligencia artificial al crear al robots   se poya en cuatro pilares básicos: 1). Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles, 2). Algoritmos genéticos, 3). Redes neuronales artificiales y 4). Razonamiento mediante una lógica formal análoga al pensamiento abstracto humano;  temas que por lo complejo escapan al propósito del artículo.

A medida que el desarrollo de la inteligencia artificial aumenta los robots serán cada vez más sofisticados - de hecho, ya lo son en grado sumo - porque la emulación del humano por la maquina es cada vez mejor, llegando a niveles inimaginables, insospechados y “hasta peligrosos”, de tal manera que hay la necesidad de crear la normativa  del  “ Derecho Penal para las maquinas”, lo que en un tiempo fue ciencia ficción, hoy ya no lo es, y las teorías de Isaac Asimov cobran vigencia con las tres leyes de la robótica que planteo: 1) un robots no puede causar daño a un ser humano , ni permitir que un humano  pueda sufrir daño, 2) un robots debe  obedecer las órdenes que le son dadas  por un ser humano, a  excepción  de aquellas  que se opongan a la primera ley, 3) un robots debe proteger  su propia existencia , mientras esta protección no esté en conflicto  con la  primera  o la segunda  ley; a pesar de estas leyes deseadas los robots  no  siempre responderán a ellas porque  adquieren cada vez más lo que llamamos “personalidad  electrónica”  o también  con el nombre del “ciudadano electrónico”, con derechos  y obligaciones;  el  funcionamiento de las maquinas  deriva riesgos  que exigen responsabilidad porque puede ocurrir que  lleguen “a tomar  autoconciencia de su existencia  y  realizar actos  por si solas”.

La inteligencia artificial implantada en los robots en la actualidad es omnipresente. Se gesta una responsabilidad cumulativa a la persona física del fabricante, al diseñador, al programador, al director de la empresa y también a los robots. La preocupación será el “control humano significativo de los robots”, para prevenir los riesgos por su uso. Colombia no tiene aún legislación establecida en esta materia, pero en Europa, el Parlamento  prepara seis (6) leyes para regular y controlar el uso de los robots, su interacción con los ciudadanos y las empresas de la unión europea, entre los aspectos más importantes de estas leyes tenemos: 1). Todo robots debe tener un interruptor de emergencia. Esto con el fin de poderlo desactivar, 2). Ningún robot podrá hacer daño a un humano. No se deben de fabricar para ocasionar males a la humanidad, 3). Se prohíbe crear vínculos emocionales con ellos.

Los robots humanoides no tienen sentimientos, pero puede darse el caso de que el humano por estar siempre en contacto, llegue a crear vínculos afectivos. Como el tema es extremadamente complejo tendrá el congreso la obligación  de legislar en su momento, quedando  inquietudes por resolver como las siguientes: ¿Qué pena se le impondrá a un robot? ¿Podrá un robot resocializarse? ¿Será culpable el fabricante  ante una falta del robot? y otras muchas. Fuentes complementarias de apoyo: Ámbito Jurídico, Hoover Wadith Ruiz Rengifo y  varios de Internet. 
Publicidad