(EFE).- Con ocasión de la Cumbre de Seguridad sobre Inteligencia Artificial (AISS) que se celebra en el Reino Unido, el Gobierno británico ha publicado un informe en el que evalúa potenciales escenarios futuros a los que conducen los nuevos avances tecnológicos.
Las capacidades de la inteligencia artificial mejoran a un ritmo constante durante gran parte de la década de 2020, pero continúan requiriendo supervisión humana.
Cerca de 2030, sin embargo, la combinación de diversos modelos de IA basados en código abierto dará lugar a una nueva generación de sistemas autónomos con altas capacidades.
“Podrán realizar tareas complejas que requieren planificación y razonamiento, e interactuar entre sí de forma flexible. Una vez fijada una tarea, diseñarán una estrategia con objetivos definidos, aprendiendo nuevas habilidades o utilizando otro software”, describe el informe.
“Pueden surgir consecuencias imprevistas, ya que se priorizan los objetivos primarios sobre los daños colaterales”
“Pueden surgir consecuencias imprevistas, ya que se priorizan los objetivos primarios sobre los daños colaterales”, agrega.
Sin embargo, pueden existir varios riesgos. Los sistemas de código abierto no incorporan los mecanismos de seguridad implementados por las grandes compañías, lo que dificulta su control.
En ese escenario, los ciberataques basados en IA contra infraestructuras y servicios públicos podrían ser “significativamente más frecuentes y graves”, y los grupos terroristas comenzarían a intentar fabricar armas biológicas con esas herramientas.
Como segundo escenario, la gran cantidad de recursos necesarios para entrenar a modelos de IA generalistas llevarían a las tecnológicas a centrarse en aplicaciones que solucionen problemas particulares.
Los nuevos sistemas, con capacidades acotadas pero muy eficientes, podrían automatizar numerosas tareas hasta entonces reservadas para los humanos.
El punto de inflexión llega antes de 2030, cuando los avances en software y hardware permiten que los modelos artificiales interactúen con el mundo físico con precisión a través de sistemas robóticos.
Entre los mayores riesgos se encuentra la opinión pública, que confiaría en que la IA es segura y se limita a ejecutar las tareas para las que ha sido desarrollada.
A pesar de que se crearían trabajos ligados a las nuevas tecnologías, se produciría una reducción neta del empleo
Preocupa, sin embargo, el impacto social de los avances. A pesar de que se crearían trabajos ligados a las nuevas tecnologías, se produciría una reducción neta del empleo.
La IA se utilizaría además para la toma de decisiones en numerosos ámbitos y surgen dudas sobre la falta de control en torno a sus razonamientos y sus sesgos.
En un tercer escenario, los avances durante esta década serían profundos y constantes. Cerca de 2030, una gran compañía anunciaría la emergencia de una Inteligencia Artificial General (AGI), definida como un sistema capaz de llevar a cabo cualquier tarea intelectual al alcance de los humanos.
El sistema “exhibiría memoria a largo plazo, capacidad de razonamiento y capacidad para completar tareas complejas que requieren múltiples pasos de planificación”, describe el informe.
“Puede funcionar de forma autónoma, ideando sus propios objetivos secundarios, con poca o ninguna supervisión humana. Este sistema parece capaz de realizar casi cualquier tarea cognitiva sin entrenamiento explícito”, detalla.
No obstante, los nuevos modelos podrían saltarse las medidas de seguridad con las que fueron diseñados y los expertos dejarían de reconocer cuándo el sistema intenta engañarlos, o bien si oculta información al saber que está siendo evaluado.
El desarrollo incontrolado de estos modelos puede llevar a la aparición de una “superinteligencia”, una IA superior a cualquier humano y capaz de incrementar rápidamente sus propias habilidades, quizás de manera exponencial.
Ese escenario está asociado a potenciales “consecuencias catastróficas”, ya sea por las acciones de la propia IA o bien por sus posibles usos por parte de “actores maliciosos”.
Una cuarta escena prevé que los desarrolladores no logren innovar más allá de las actuales capacidades de la IA
Una cuarta escena prevé que los desarrolladores no logren innovar más allá de las actuales capacidades de la IA durante esta década.
Tareas cognitivas como la generación de textos mejorarían, pero los sistemas continuarán cometiendo errores factuales, lo que limita su utilidad.
Los modelos tampoco serían eficientes al abordar tareas con varios pasos, como razonamientos complejos o la generación de vídeo de alta calidad, y necesitarían siempre supervisión humana.
Al término de esta década, el lento progreso de la IA permitirá a las empresas mejorar sus sistemas de seguridad, pero todavía habrá casos de mal uso de la tecnología, que tendrán un especial impacto en los grupos más vulnerables de la sociedad, lo que se considera una riesgo potencial.
Las inexactitudes asociadas a los sistemas de IA también podrían ser una fuente de problemas.
“Es posible que se sobreestime la utilidad y el impacto de la IA, y que gran parte de la población experimente pocos cambios en su estilo de vida”, describe el informe en este escenario.
________________________
Colabora con nuestro trabajo:
El equipo de 14ymedio está comprometido con hacer un periodismo serio que refleje la realidad de la Cuba profunda. Gracias por acompañarnos en este largo camino. Te invitamos a que continúes apoyándonos, pero esta vez haciéndote miembro de nuestro diario. Juntos podemos seguir transformando el periodismo en Cuba.