EN VIVO

/

Duna

/

Sonidos de tu Mundo

DUNA TV

Desde Musk a Wozniak: Líderes de la tecnología piden pausar avances en Inteligencia Artificial por seis meses

Es por esto que piden una pausa “pública y verificable”, en la cual se pueda involucrar a actores clave de esta industria, además de la intervención de los gobiernos.

Por:

29 Marzo, 2023

Más de 1.100 líderes de la tecnología, entre los que se incluye Elon Musk (Tesla-SpaceX), Steve Wozniak (Apple) y Tristan Harris (Google), pidieron a los laboratorios de inteligencia artificial, que pongan en pausa los diseños de plataformas más potentes que GPT-4.

A través de una carta abierta advirtieron que “los sistemas contemporáneos de IA se están volviendo humanamente competitivos en tareas generales, y debemos preguntarnos: ¿deberíamos dejar a las máquinas inundar nuestros canales de información con propaganda y mentiras?”.

“¿Deberíamos automatizar todos los trabajos, incluyendo los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que puedan eventualmente superarnos en número y en inteligencia, volviéndonos obsoletos y reemplazándonos? ¿Deberíamos arriesgar perder el control de nuestra civilización?”, apuntan los firmantes, entre los que también se incluyen investigadores, académicos y ejecutivos de empresas como Skype, Pinterest y Meta.

Además agregan que “tales decisiones no deben ser delegadas a líderes tecnológicos no electos. Sistemas de IA poderosos deberían ser desarrollados sólo una vez que estemos confiados en que sus efectos serán positivos y sus riesgos manejables”.

Al respecto, también argumentan que hay una falta de “planificación y administración” en los avances recientes, y que mas bien se trataría de “carreras fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- pueden entender, predecir, o controlar fiablemente”.

Es por esto que piden una pausa “pública y verificable” de seis meses, en la cual se pueda involucrar a actores clave de esta industria, además de la intervención de los gobiernos.

“Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”, señalaron en esta carta publicada en el Future of Life Institute.

Otro de los puntos relevantes, es que apuntan la necesidad de trabajar en conjunto con legisladores para avanzar en el desarrollo de sistemas sólidos de gobierno de IA, con el que además de garantizar un desarrollo seguro de esta tecnología, también permita su auditoría, supervisión y seguimiento de los responsables en caso de fugas o daños, para que así éstos puedan responder en caso de que suceda.

SUSCRÍBETE A NUESTRO NEWSLETTER

ENTREVISTAS, NOTICIAS Y PODCAST