Elon Musk, Steve Wozniak ,el investigador estadounidense Stuart Russel y otros 1.097 firmantes se unen a la iniciativa con el fin de pausar durante un semestre el uso de los estudios utilizados con la inteligencia artificial hasta asegurar que ésta no tendría resultados «catastróficos» para la humanidad.
La llegada del ChatGPT y otros sistema de Inteligencia Artificial ha sido un boom en el mundo, cada vez son más las personas interesadas en este nuevo método; sin embargo, empresarios y científicos destacados del sector tecnológico, dejan en evidencia su preocupación ante la conquista de la IA pues para ellos “pueden plantear profundos riesgos para la sociedad y la humanidad”.
A través de una carta abierta publicada en la página web futureoflife.org las destacadas figuras como: Steve Wozniak, Tristan Harris, Elon Musk, Emad Mostaque ,Yuval Noah Harari y otras 1095 personas, del mundo de la tecnología y la ciencia firmaron el documento que comienza:
«Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA. Como se establece en los Principios de IA de Asilomar ampliamente respaldados , la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender. predecir o controlar de forma fiable»
En la misma líneas, los autores continúan mencionando que «Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿ Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos.»
En este sentido, los especialistas destacan que que este tipo de sistemas potentes como lo es la IA deben desarrollarse solo una vez que haya la seguridad de que los resultados sean realmente positivos para la humanidad y que sus riesgos sean manejables.
De esta manera, hicieron un llamado a los laboratorios para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4 , advirtiendo además que de llevarse a cabo la pausa, ésta debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.
Finalmente, los remitentes de la carta hicieron un llamado a los investigadores con el fin de que haya un reenfoque en el desarrollo de esta nueva tecnología, «un sistema potente, más preciso, seguros robusto, confiables y leales (…) La humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo tenido éxito en la creación de poderosos sistemas de IA, en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse. La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparados.»