El avance de la inteligencia artificial (IA) plantea preocupaciones sobre su potencial impacto en la sociedad. La creciente inteligencia de las IA, resultado de su entrenamiento y capacidad para aprender de manera autónoma, ha llevado a figuras influyentes, como Elon Musk, a advertir sobre los peligros que pueden representar.
Sin embargo, Mustafa Suleyman, cofundador de la división de IA de Google, DeepMind, ha ofrecido ideas sobre cómo abordar este problema en una entrevista con MIT Technology Review.
Suleyman propone eliminar la “automejora recursiva” de la IA como medida para evitar problemas futuros. Esta capacidad permite que la IA aprenda de forma autónoma con el tiempo, y Suleyman aboga por una supervisión constante para su evolución.
Además de la responsabilidad de las grandes empresas en controlar sus IA, Suleyman destaca la importancia de que los usuarios establezcan límites en el uso de sus datos personales, ya que las empresas utilizan estos datos para entrenar sus IA. Estos límites deben crear una seguridad sólida y garantizar que la IA no pueda cruzar ciertos umbrales.
Suleyman se muestra optimista sobre la regulación de la IA y no está particularmente preocupado por la posibilidad de que la IA represente una amenaza para la humanidad. Sin embargo, reconoce que hay mucho trabajo por hacer en áreas como la privacidad, el reconocimiento facial y la moderación de contenidos en la regulación de la IA. Estamos en las etapas iniciales de este proceso y aún queda un largo camino por recorrer.