Una carrera armamentista para la supremacía de inteligencia synthetic (IA), provocada por el pánico reciente sobre el chatbot chatbot profundo, corre el riesgo de amplificar los peligros existenciales de la superinteligencia, según uno de los “padrinos” de la IA.
El pionero de aprendizaje automático canadiense Yoshua Bengio, autor del primer informe internacional de seguridad de IA que se presentará en una cumbre internacional de IA en París la próxima semana, advierte la inversión sin management en el poder computacional para la IA sin supervisión es peligrosa.
“El esfuerzo está haciendo quién va a ganar la carrera, en lugar de cómo nos aseguramos de que no vamos a construir algo que explote en nuestra cara”, cube Bengio.
Las carreras militares y económicas, advierte, “dan como resultado esquiar la ética, reducir los esquinas de la responsabilidad y la seguridad. Es inevitable”.
Bengio trabajó en redes neuronales y aprendizaje automático, la arquitectura de software program que sustenta los modelos de IA modernos.
Está en Londres, junto con otros pioneros de la IA para recibir el Premio Queen Elizabeth, el premio más prestigioso de la Ingeniería del Reino Unido en reconocimiento a la IA y su potencial.
Está entusiasmado con sus beneficios para la sociedad, pero el pivote lejos de la regulación de la IA de la Casa Blanca de Donald Trump y la frenética competencia entre las grandes compañías tecnológicas para modelos de IA más poderosos es un cambio preocupante.
“Estamos construyendo sistemas que son cada vez más poderosos; volviéndose sobrehumanos en algunas dimensiones”, cube.
“A medida que estos sistemas se vuelven más poderosos, también se vuelven extraordinariamente más valiosos, económicamente hablando.
“Así que la magnitud de 'Wow, esto me hará mucho dinero' está motivando a mucha gente. Y, por supuesto, cuando quieres vender productos, no quieres hablar sobre los riesgos”.
Pero no todos los “padrinos” de la IA están tan preocupados.
Tomemos a Yann Lecun, el jefe científico de AI de Meta, también en Londres para compartir el premio QE.
“Nos han engañado al pensar que los modelos de lenguaje grande son inteligentes, pero en realidad no lo son”, cube.
“No tenemos máquinas que sean tan inteligentes como un gato de la casa, en términos de comprender el mundo físico”.
Dentro de tres a cinco años, Lecun predice, la IA tendrá algunos aspectos de la inteligencia a nivel humano. Los robots, por ejemplo, pueden realizar tareas que no han sido programadas o entrenadas para hacer.
Leer más:
La IA puede aumentar la velocidad del tratamiento del cáncer de mama
El materials que podría ser clave para la energía casi sin límite
Pero, argumenta, en lugar de hacer que el mundo sea menos seguro, el drama de Deepseek, donde una empresa china desarrolló una IA para rivalizar con la mejor tecnología de Estados Unidos con una décima parte del poder informático, demuestra que nadie dominará por mucho tiempo.
“Si Estados Unidos determine calmar cuando se trata de IA por razones geopolíticas o, por razones comerciales, entonces tendrá innovación en otro lugar en el mundo. Deepseek lo demostró”, cube.
El Premio de la Actual Academia de Ingeniería se otorga cada año a los ingenieros cuyos descubrimientos tienen, o prometen tener el mayor impacto en el mundo.
Los destinatarios anteriores incluyen los pioneros de las células fotovoltaicas en paneles solares, tecnología de turbinas eólicas y imanes de neodimio que se encuentran en discos duros y motores eléctricos.
El ministro de Ciencias, Lord Vallance, quien preside la Fundación del Premio QE, cube que está alerta a los riesgos potenciales de la IA. Organizaciones como el nuevo Instituto de Seguridad de IA del Reino Unido están diseñadas para prever y prevenir los posibles daños que la inteligencia “humana” de IA podría traer.
Pero está menos preocupado por una nación o compañía que tenga el monopolio de la IA.
“Creo que lo que hemos visto en las últimas semanas es mucho más possible que tengamos muchas empresas en este espacio, y la concept del dominio de un solo punto es bastante poco possible”, cube.