El cada vez más frecuente, uso de la Inteligencia Artificial (IA) ha supuesto un giro copernicano en muchos ámbitos de nuestra vida diaria: desde la posibilidad de generar imágenes o textos a través de unos simples parámetros, hasta el control de complejos sistemas administrativos, armamentísticos, laborales, etc. Actualmente, tenemos acceso a un mundo digital complejo habitado por “máquinas inteligentes” capaces de llevar a cabo un aprendizaje autónomo. Son muchas las ventajas que ofrecen estos nuevos desarrollos tecnológicos. Las IA están aquí para quedarse y facilitarnos múltiples tareas. No obstante, existe otra cara de la moneda, toda una serie de desventajas se deriva del uso y abuso de esta clase de dispositivos. Una de tales desventajas es su utilización para cometer nuevas modalidades de hechos delictivos. El peor escenario posible parece sacado de una novela o película de ciencia ficción: ¿puede una IA ser capaz de cometer delitos de manera autónoma? La aparición y desarrollo de las IA ha suscitado toda una serie de problemas legales en muchos campos del ordenamiento jurídico. En este curso nos centraremos en aquellos que tienen interés para el Derecho Penal y la Criminología: creación de imágenes pornográficas a través de IA (deepfakes), bulos (fakenews), utilización de la IA para controlar sistemas de armamento autónomos letales (SAAL), algoritmos para la detección de la peligrosidad criminal, etc.
*Estudiantes UNED, Tutores, PAS y Prof. Sede Central UNED, colaboradores Prácticum, estudiantes (estudios oficiales y usuarios del CRAI), estudiantes Universidad para mayores, Asociación de Exalumnos UNED, personal de los Ayuntamientos de Barbastro, Fraga y Sabiñánigo, personal de la Diputación de Huesca y Gobierno de Aragón, miembros de entidades con convenios de colaboración, en los que se recoja expresamente esta condición. Deberán aportar documentación justificativa.
Matrícula Ordinaria | Reducida | |
---|---|---|
Precio | 40 € | 20 € |
Esta actividad impacta en los siguientes Objetivos de Desarrollo Sostenible: