Durante una entrevista para la revista Rolling Stone, James Cameron expresó su preocupación por el avance de la Inteligencia Artificial y su potencial uso en armamento. El director afirmó: “Creo que aún existe el peligro de un apocalipsis al estilo de Terminator, donde se combina la IA con sistemas de armas, incluso a nivel de sistemas de armas nucleares, contraataque de defensa nuclear, etc.”.
Cameron, creador de la icónica saga cinematográfica, señaló que una carrera armamentística basada en IA podría desembocar en escenarios catastróficos, sobre todo si la tecnología queda fuera de control humano. Recordó que, aunque sus películas nacieron como ficción, parte de la trama planteaba riesgos que hoy resultan más tangibles debido a la velocidad del desarrollo tecnológico.
El cineasta también subrayó que la humanidad debe establecer límites éticos y normativos antes de que la IA alcance capacidades autónomas peligrosas. “No se trata solo de ciencia ficción; es un riesgo real si no se regula”, advirtió. Cameron ha sido históricamente un defensor de la innovación responsable, pero esta vez enfatizó que el peligro no es hipotético, sino potencialmente inminente.