Los investigadores de IA piden una pausa en los proyectos de IA a gran escala: citan «riesgos para la sociedad y la humanidad»

En una carta abierta (se abre en una nueva pestaña) a la comunidad de IA, un grupo de renombrados investigadores de IA junto con Elon Musk y otras luminarias tecnológicas pidieron a los laboratorios de IA que dejaran de entrenar proyectos de IA a gran escala más poderosos que GPT-4, la tecnología detrás de ChatGPT y demasiado. Otros son populares chatbots de IA.

El Future of Life Institute no se anda con rodeos en su carta; comenzando con la advertencia de que «los sistemas de IA con inteligencia humana-competitiva pueden ser riesgos graves para la sociedad y la humanidad». Advierten que desarrollar estos sistemas requiere una adecuada planificación y gestión, lo que no está ocurriendo en la “carrera actual por desarrollar y desplegar mentes digitales más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o vaticinar”. controlar de manera confiable».

Negocio de IA arriesgado

Los investigadores no quieren poner fin a toda la investigación de IA, no quieren quedarse sin trabajo, pero sí quieren un descanso de seis meses de lo que llaman «modelos de caja negra cada vez más impredecibles con capacidades emergentes». Durante ese período, los laboratorios de IA y los expertos independientes trabajarán juntos para crear estándares de seguridad para el desarrollo de IA que puedan ser «supervisados ​​y supervisados ​​por expertos externos independientes» para garantizar que el progreso de la IA esté debidamente regulado.

OpenAI, la compañía detrás de ChatGPT, reconoció algunas de esas preocupaciones en su reciente declaración sobre inteligencia artificial general. (se abre en una nueva pestaña). La compañía dijo: «En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para esfuerzos más avanzados, acuerde la tasa de crecimiento de la computación utilizada para construir nuevos modelos esa limitación». La diferencia entre ellos es que el Instituto para el Futuro de la Vida cree que ya estamos en ese punto de inflexión.

Es difícil no pensar en IA apocalípticas de la cultura popular en esta discusión. Ya sea Skynet de la serie Terminator o la IA de Matrix, la idea de que la IA gane sensibilidad y declare la guerra o acose a la humanidad ha sido un tema común en la ciencia ficción apocalíptica durante muchos años.

Todavía no hemos llegado allí, pero ese es exactamente el nivel de preocupación que se plantea aquí. Los investigadores advierten que no se debe dejar que este tren de alta velocidad alcance la velocidad suficiente para que no pueda detenerse.

Estos proyectos de IA parecen herramientas divertidas y útiles, y el Instituto para el Futuro de la Vida quiere que sigan siendo así deteniéndolos ahora y dando un paso atrás para centrarse en los objetivos a largo plazo y la estrategia de desarrollo detrás para considerar detrás. ellos, lo que nos permitirá sacarle partido. los beneficios de estas herramientas sin consecuencias graves.

Flecha

Volvamos al XPS 13

Flecha

Descargar más ofertas

Publicaciones Similares