TecnoFreaks -INICIO

Steve Wozniak, Elon Musk y otros expertos exigen poner freno a la inteligencia artificial

pausa inteligencia artificial
Photo by Steve Johnson on Unsplash

Expertos en inteligencia artificial, tecnólogos y líderes empresariales están entre los más de 1.000 firmantes que piden a los laboratorios de inteligencia artificial que detengan el entrenamiento de sistemas más poderosos que GPT-4.

La carta abierta fue publicada este miércoles por el Future of Life Institute, una organización sin ánimo de lucro que busca mitigar los riesgos de la tecnología transformadora. La lista de firmantes incluye al cofundador de Apple, Steve Wozniak, al CEO de SpaceX, Tesla y Twitter, Elon Musk, al CEO de Stability AI, Emad Mostaque, al director ejecutivo del Centro de Tecnología Humana, Tristan Harris, y a Yoshua Bengio, fundador del Instituto de Investigación de IA Mila.

La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debería ser planificada y gestionada con el cuidado y los recursos correspondientes, dice la carta.

Desafortunadamente, este nivel de planificación y gestión no está sucediendo, en los últimos meses los laboratorios de IA se han visto envueltos en una carrera descontrolada para desarrollar e implementar inteligencias artificiales cada vez más poderosas

Empresas como OpenAI, Microsoft y Google han estado avanzando a toda velocidad con sus modelos de IA generativa. Impulsados ​​por la ambición de acaparar el mercado de la inteligencia artificial, se anuncian nuevos avances y lanzamientos de productos casi a diario. Pero la carta dice que todo está sucediendo demasiado rápido como para que se puedan considerar las preocupaciones éticas, de regulación y de seguridad.

ai pause2
Photo by Steve Johnson on Unsplash

La carta abierta pide una pausa de seis meses en los experimentos de IA que deberían ser desarrollados solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables.

El texto, escrito por el Future of Life Institute, añade que la pausa debería ser pública y verificable e involucrar a todos aquellos que trabajan en modelos avanzados de inteligencia artificial como GPT-4. No sugiere cómo se podría verificar una pausa en el desarrollo, pero añade que si tal pausa no puede ser implementada rápidamente, los gobiernos deberían intervenir e imponer una moratoria, algo que parece poco probable que ocurra en seis meses.

Al mismo tiempo, los firmantes de la carta piden que los responsables políticos se involucren con las autoridades reguladoras dedicadas a la supervisión y el seguimiento de los sistemas de IA, distinguiendo entre contenido real y generado por inteligencia artificial, realizando auditorías y certificaciones para los modelos de IA, estableciendo responsabilidad legal por el daño causado por la IA, financiando públicamente la investigación de inteligencia artificial e instituciones para hacer frente a las dramáticas interrupciones económicas y políticas (especialmente para la democracia) que la IA causará.

Parece que nos estamos moviendo demasiado rápido, dice Peter Stone, profesor de la Universidad de Texas en Austin y presidente del One Hundred Year Study on AI, un informe destinado a comprender las implicaciones de la inteligencia artificial a largo plazo.

Lo que plantea Stone, que es uno de los firmantes de la carta, es que no está de acuerdo con todo lo que dice la misma, y personalmente no se preocupa por los peligros existenciales. Pero afirma que los avances en IA están sucediendo tan rápidamente que tanto la comunidad de IA como el público en general apenas han tenido tiempo para explorar los beneficios y posibles abusos de ChatGPT antes de que se mejorara con GPT-4. Creo que vale la pena obtener un poco de experiencia sobre cómo se pueden usar y abusar antes de correr para construir el siguiente, dice. Esto no debería ser una carrera para construir el próximo modelo y sacarlo antes que los demás.

ai pause3
Photo by Steve Johnson on Unsplash

La carta no está diciendo que se detengan completamente todos los desarrollos de IA. Solo está diciendo que se reduzca la velocidad. Las sociedades necesitan su tiempo para construir la infraestructura adecuada para que la revolución de la IA sea segura y beneficiosa para todos

Comparte esta publicación

Next magazine you need

readin.

lo más leído
subscribe background

lo que necesitas saber

cada semana en tu correo electrónico

Responsable: David Granado Primoceri. Finalidad de la recogida de datos personales: enviarte nuestra Newsletter. Legitimación: Consentimiento del interesado. Destinatarios: Mailchimp, nuestro servicio de email marketing (ver su política de privacidad) Derechos: podrás acceder, rectificar, limitar y suprimir tus datos escribiendo a hola@tecnofreaks.com. Puedes obtener más información consultando nuestra Política de privacidad.