Tras el lanzamiento de ChatGPT 4, la Inteligencia Artificial conversacional más avanzada del momento, los líderes tecnológicos han reaccionado con cierta preocupación.
Una muestra de esto es la carta con más de 1 300 signatarios, entre ellos Elon Musk y Steve Wozniak, quienes piden una pausa de al menos seis meses en el desarrollo y entrenamiento de la Inteligencia Artificial.
Fue publicada por el Instituto Future of Life. En esta, los signatarios hablan que los laboratorios de Inteligencia Artificial están desarrollando sistemas que ni siquiera sus creadores humanos pueden controlar, predecir o tomar control pleno.
¿Qué propone la carta para pausar el desarrollo de inteligencia artificial?
El documento señala que los poderosos sistemas de Inteligencia Artificial deben ser desarrollados únicamente cuando los laboratorios estén seguros de que “sus efectos serán positivos y que sus riesgos serán manejables”.
Para estos líderes tecnológicos, lo que importa en este momento es dimensionar la magnitud del efecto que tendrán los sistemas con Inteligencia Artificial en la vida de quienes las usen.
La pausa de al menos seis meses, según la carta, deberá servir para que los desarrolladores implementen protocolos seguros para el diseño avanzado de Inteligencia Artificial.
Para esta tarea, los signatarios también piden la colaboración de los Estados a fin de que crear una gobernanza eficaz en torno a estos sistemas. Esto incluye marcos regulatorios, normativas, financiamiento, entre otros elementos adaptados a la nueva realidad tecnológica.
Hasta este 30 de marzo del 2023, la carta ya contaba con grandes firmas a su favor. Además de Musk (Tesla, Twitter) y Wozniak (Apple), el documento tiene el respaldo de personajes como Evan Sharp (Pinterest), Emma Bluemke (Centro de Governanza para la IA de la Universidad de Oxford), Craig Peters (Getty Images), entre otros.
¿Cuál ha sido la respuesta a la carta?
“Todo muy calmado en el ojo del huracán”. Esto fue lo que tuiteó Sam Altman, CEO de OpenAI (desarrolladora de ChatGPT), a primera hora del jueves 30 de enero del 2023.
Su respuesta se dio a poco tiempo después de haber publicado, en la misma red social, su aporte a los temas que se discuten en la carta. Al respecto, él escribió que para un mejor futuro de la Inteligencia Artificial se necesita:
1. La capacidad técnica para alinear una superinteligencia
2. Suficiente coordinación entre la mayoría de los principales esfuerzos de la Inteligencia Artificial fuerte
3. Un marco regulatorio global efectivo que incluya la gobernabilidad democrática
Altman no ha sido ajeno a la preocupación que se expresa en la carta, aunque no la haya firmado (en parte por la tensa relación que mantiene con Musk).
En marzo de este 2023, en una entrevista con ABC News, él señaló que “debemos tener cuidado y, al mismo tiempo, entender que no sirve tenerlo todo en un laboratorio”.
Visita nuestros portales: