La era de la superinteligencia artificial es inevitable, dados los avances actuales, advirtieron los creadores del ChatGPT en una carta publicada en el blog de OpenAI. Y urgieron a la humanidad a crear los mecanismos para regularla, ya que su relevancia es tanta como lo fue en su momento el descubrimiento de la energía nuclear.

«Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí. Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos. La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; la biología sintética es otro ejemplo», señala la carta firmada, entre otros, por el CEO de OpenAI, Sam Altman.

Para los creadores del ChatGPT, uno de los chatbots de inteligencia artificial más avanzados del mercado, es inevitable que se llegue en una década a una superinteligencia artificial que superará «el nivel de habilidad de los expertos en la mayoría de los dominios» y es posible que estos tipos de sistemas «lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad».

Pero advirtieron que hay tres aspectos en los cuales la humanidad debe poner su atención si quiere mitigar los riesgos de este desarrollo.

Establecer límites al ritmo de desarrollo de la IA

Los autores llaman a un esfuerzo conjunto de los principales gobiernos del mundo para establecer un proyecto que pueda establecer límites anuales al aumento de las capacidades de la Inteligencia Artificial, con el fin de «ayudar a la integración fluida de estos sistemas con la sociedad» y garantizar la seguridad.

Crear un ente regulador internacional

También piden crear algo similar a la Agencia Internacional de Energía Atómica para regular a nivel global el desarrollo y la implementación de sistemas basados en la inteligencia artificial.

El papel de dicha agencia se centrará en la inspección de sistemas, la realización de auditorías, supervisar estándares de seguridad e imponer sanciones a las empresas que no cumplan con niveles mínimos de seguridad.

Pero advierten que esta agencia no deberá encargarse de cuestiones que podrían dejarse en manos de países individuales, como definir lo que se le debe permitir decir o no a una IA.

Capacidad técnica para garantizar la seguridad

Adicionalmente, indicaron que la siguiente tarea es garantizar la capacidad técnica para hacer que una superinteligencia sea segura.

«Los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora, y debemos tener cuidado de no diluir el enfoque en ellos aplicando estándares similares a la tecnología muy por debajo de esta barra», indicaron.

Los creadores del ChatGPT se mostraron optimistas en que la IA conducirá a un mundo mucho mejor al que podemos imaginar hoy y que el desarrollo de una superinteligencia parece inevitable. De hecho, señalan que tratar de detenerlo sería poco intuitivo y arriesgado.

Expansión

Conéctate con Formato7:

VIDEO | Descubren grieta marina que podría causar terremoto de 9 grados