Un atentado ocurrido a principios de enero frente al hotel del presidente electo Donald Trump en Las Vegas ha revelado un caso alarmante de uso de inteligencia artificial. Matthew Livelsberger, un militar de 37 años que sufría de estrés postraumático, falleció en el vehículo en el que se encontraba, un Cibertruck de Tesla, poco antes de que estallara una explosión que dejó a siete personas heridas.
Las autoridades han descubierto que Livelsberger utilizó la inteligencia artificial ChatGPT para obtener información sobre cómo fabricar y colocar el explosivo. El sheriff del condado de Clark, Kevin McMahill, ha confirmado que este incidente marca un hito en el uso de la inteligencia artificial para cometer actos delictivos. Livelsberger, quien fue miembro de las Fuerzas Especiales del Ejército, también recurrió a la plataforma para obtener detalles sobre la compra de materiales y las implicaciones legales de su acción.
En una carta dejada antes de su muerte, el militar manifestó que su acto era una “llamada de alerta” a los veteranos y ciudadanos estadounidenses, criticando a las élites del poder. Con una carrera militar destacada y misiones en Afganistán, Ucrania y otros países, Livelsberger había regresado recientemente de una misión en Alemania y estaba de baja cuando cometió el atentado. El caso ha desatado un debate sobre los riesgos del acceso a herramientas de inteligencia artificial y su potencial uso indebido.