Cientos de expertos y empresarios piden suspender y regular los avances de la IA
Una carta abierta firmada por cientos de expertos en inteligencia artificial y empresarios pide que todos los laboratorios dedicados a la IA “pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4”. Entre los firmantes aparecen personalidades muy conocidas, como Elon Musk, uno de los fundadores de OpenAI; o Steve Wozniak, cofundador de Apple; académicos como Stuart Rusell y Ramón López de Mántaras; o escritores como Yuval Noah Harari. En total, 1.124 firmas.
La misiva, publicada por el Instituto Future of Life (futuro de la vida) y titulada Pausa en los experimentos gigantes de IA , apunta que “los sistemas de IA con una inteligencia competitiva con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, como demuestran numerosas investigaciones y reconocen los principales laboratorios de IA”.
Los especialistas cuestionan si debemos “arriesgarnos a perder el control de nuestra civilización”
Los firmantes se cuestionan si vale la pena dejar que los avances en IA impacten en la sociedad sin regulación alguna, como ha ocurrido hasta ahora: “¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?”.
Los firmantes responden que “estas decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas de IA potentes sólo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables”. La carta considera que hemos llegado a un punto de desarrollo de la inteligencia artificial en que es importante “obtener una revisión independiente antes de empezar a entrenar futuros sistemas”. Incluso proponen que se limite “la tasa de crecimiento de la computación utilizada para crear nuevos modelos”.
¿De qué serviría esa moratoria de seis meses? La propuesta de los firmantes es que se utilice “para desarrollar y aplicar conjuntamente una serie de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos i
Los firmantes creen que es necesario "“un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles y cada vez más grandes"
Con esos teóricos protocolos de seguridad compartidos a los que se deberían unir todos los sistemas de IA se garantizaría, según los firmantes, que estos serían “seguros más allá de toda duda razonable”. En su opinión, este parón no implicaría una pausa en el desarrollo de la tecnología de inteligencia artificial, aunque sí “un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles y cada vez más grandes con capacidades emergentes”.
La declaración reclama ese semestre de pausa “pública y verificable” y que, en caso contrario, haya intervención de los gobiernos para imponerla. Los proponentes creen que quienes desarrollan hoy la IA “deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza”.
Para esto sería necesario una serie de elementos como nuevas autoridades regulatorias; una supervisión y seguimiento de las IA más potentes; sistemas que permitan determinar la procedencia de un contenido, una “marca de agua que ayude a distinguir lo real de lo sintético”; auditoría y certificación; responsabilidad por los daños causados por la IA; financiación pública sólida para la investigación técnica; y “recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA”.
Pause Giant AI Experiments: An Open Letter
We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than
AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research[1] and acknowledged by top AI labs.[2] As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.
Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system's potential effects. OpenAI's recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now.
Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.
AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.[4] This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.
AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.
In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.
Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an "AI summer" in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.[5] We can do so here. Let's enjoy a long AI summer, not rush unprepared into a fall.
La
humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo
logrado crear poderosos sistemas de IA, ahora podemos disfrutar de un
"verano de IA" en el que cosechamos las recompensas, diseñamos estos
sistemas para el claro beneficio de todos y damos a la sociedad la
oportunidad de adaptarse. La sociedad ha hecho una pausa en otras
tecnologías con efectos potencialmente catastróficos en la sociedad. [5]
Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos
apresuremos sin preparación a una caída.
- https://futureoflife.org/open-letter/pause-giant-ai-experiments/
https://articulosclaves.blogspot.com/2023/03/la-carrera-por-la-ia-general-entre.html
https://articulosclaves.blogspot.com/2023/03/quien-teme-chatgpt-xferras.html
https://articulosclaves.blogspot.com/2023/03/chatgpt-ya-ha-creado-un-nuevo-trabajo.html
¿Cómo se regulará la inteligencia artificial?
https://articulosclaves.blogspot.com/2023/03/como-se-regulara-la-inteligencia.html
https://articulosclaves.blogspot.com/2023/03/ai-tocracy.html
https://articulosclaves.blogspot.com/2023/03/en-la-era-de-la-inteligencia-artificial.html
https://articulosclaves.blogspot.com/2023/03/el-impacto-de-chatgpt-y-gpt-4-en-el.html
https://notistecnicas.blogspot.com/2022/12/robots-realidad-virtual-ciberseguridad.html
https://notistecnicas.blogspot.com/2022/12/por-que-la-inteligencia-artificial-es.html
https://notistecnicas.blogspot.com/2022/12/primer-contacto-con-chatgpt.html
https://notistecnicas.blogspot.com/2023/03/las-nuevas-y-sorprendentes-ideas-de-la.html
https://notistecnicas.blogspot.com/2023/03/la-carrera-por-la-ia-general-entre.html
https://notistecnicas.blogspot.com/2023/03/en-la-era-de-la-inteligencia-artificial.html
https://www.lavanguardia.com/vida/20230329/8863670/cientos-expertos-empresarios-piden-suspender-regular-avances-ia.html
Para
que no pase como con las criptomonedas, usadas en unos casos para
fomentar a emprendedores y en otros casos para redes de crimen
organizado
https://avisosnadie.blogspot.com/2022/11/porque-no-se-regularon-las-criptomonedas.html
“Es temible el uso que ya se está haciendo de la inteligencia artificial”
TECNOLOGÍA
Cuatro expertos advierten de los riesgos que entraña una tecnología que está cambiando el mundo de forma irreversible
Que la inteligencia artificial es uno de los avances más importantes de la tecnología de las últimas décadas -uno de los más disruptivos, como dicen los expertos- es a estas alturas una obviedad. Que levanta importantes recelos, también. Pero lo que ya es más sorprendente es que cuatro expertos en este campo, alerten, desde diversas disciplinas, de los peligros que encierra. La Vanguardia les ha preguntado qué hay que temer de la inteligencia artificial. La utilización armamentística o el impacto negativo en quien no tenga acceso a esta tecnología son algunos de los riesgos, pero, por encima de todo el mal uso que se le dé. “El problema no es Frankenstein, sino el doctor Frankenstein”, advierten.
Nick Bostrom
“Debemos evitar que actores con malas intenciones utilicen la inteligencia artificial para desarrollar armas”
Hay tres grandes desafíos en la transición a la era de la inteligencia artificial. En primer lugar, el problema de alineación: necesitamos métodos escalables para el control de la IA, un problema técnico difícil y aún sin resolver, aunque muchas de las personas más inteligentes que conozco están trabajando en ello. Segundo, existe un problema de gobernanza, con muchas aristas y que incluye cuestiones de justicia, paz y democracia, pero también requiere que se pueda evitar que actores con malas intenciones utilicen herramientas de IA para desarrollar, por ejemplos, armas biológicas. Y en tercer lugar, hay lo que podríamos llamar un problema de empatía: a medida que construyamos mentes digitales cada vez más sofisticadas, en algún momento las propias IA podrían convertirse en sujetos con formas de estatus moral, quizá inicialmente análogas a las de algunos animales no humanos. ¡Mucho que pensar!
Director del Instituto para el futuro de la Humanidad de la Universidad de Oxford
Ramon López de Mántaras
“Los humanos a menudo somos mejores inventando herramientas que usándolas sabiamente”
Una respuesta corta: lo que más temo es el mal uso que se puede hacer y, de hecho, ya se hace, de la IA.
Y
también hay una respuesta larga. Cuando se habla de los peligros de la
IA se da a entender que esta tiene unos objetivos propios y una
intencionalidad, es decir, que tiene estados mentales. Se transmite que
toma decisiones de forma completamente autónoma y que en futuro tal vez
querría controlar el mundo. Los que más han contribuido a propagar esta
teoría son los que hablan de la singularidad tecnológica (el momento en
que la IA superará la inteligencia humana). La singularidad tecnológica
es, en mi opinión, una idea falta de solidez científica. De hecho,
pienso que este supuesto peligro de futuras ultrainteligencias
artificiales es una maniobra de distracción para intentar ocultar los
verdaderos peligros de la IA. El ejemplo más evidente son las armas
letales autónomas.
Pero no es solo esto, sino también
aplicaciones para el control masivo de la ciudadanía a través de
reconocimiento facial o para manipular la opinión de la gente en
particular con finalidades políticas. También hay ya muchas aplicaciones
desplegadas que aparentemente parecen buenas pero que, de hecho, son
también ejemplos de mal uso de la IA, como los algoritmos que
supuestamente son capaces de predecir si conviene o no dar la libertad
condicional a un imputado por un crimen en espera de juicio, o predecir
el riesgo de reincidencia de agresores en casos de violencia de género
(un software llamado viogén, del ministerio del Interior), o determinar
si una denuncia de robo con violencia e intimidación es o no falsa (un
software llamado Veripol que usa la policía española).
Las IA no
son agentes morales. Somos nosotros, los humanos, los que tenemos los
atributos necesarios para la agencia moral. La ética de las
inteligencias artificiales es la ética de las personas que las diseñan y
las aplican. La IA depende absolutamente de las personas en todas las
fases, desde la fase de la investigación fundamental hasta su
despliegue. El problema no es el monstruo de Frankenstein, el problema
es el Dr. Frankenstein.
Los humanos a menudo somos mejores
inventando herramientas que usándolas sabiamente. Me da más miedo la
estupidez natural que la inteligencia artificial.
Investigador en el Instituto de Inteligencia Artificial del CSIC
Lasse Rouhiainen
“Mucha gente va a ir al paro”
Hace tres o cuatro meses que ha empezado a
popularizarse la Inteligencia Artificial generativa con el lanzamiento
de ChatGPT. Es la primera vez que todo el mundo tiene acceso gratuito a
una inteligencia artificial impresionante con un interfaz fácil de
utilizar. Los que sepan formar parte de esta ola de democratización de
la Inteligencia Artificial la aprovecharán con lo que lograrán una
productividad 10 o 20 veces mayor y podrán impulsar nuevos negocios
rápidamente. Es lo mismo que un vendedor que se desplaza a caballo y
otro que lo hace en Ferrari. Son aspectos positivos sobre los que todo
el mundo debería estar al día.
¿Pero lo está todo el mundo? No.
Según mis análisis, quizás 85% de la población no va estar en esto, no
tiene tiempo y capacidad para aprender el funcionamiento de esta
herramienta. ¿Qué va a pasar? Será como los que usan una máquina de
escribir en vez de un ordenador de última generación. Mi estimación es
que en España, dentro de seis meses, un año, un año y medio mucha gente
que está en trabajos de oficina rutinarios que no usa herramientas de
Inteligencia Artificial se va a ir al paro. Eso es lo que debemos temer.
Los políticos no están atentos a una cuestión como esta que causará
problemas sociales importantes.
Doy un ejemplo extremo. En las
próximas elecciones presidenciales de EE.UU. del año que viene se van a
generar muchos vídeos o audios de candidatos que serán falsos. Antes,
las empresas que tenían capacidad de hacer eso lo tenían limitado por
cuestiones de ética. Ahora da igual porque además hay un montón de
actores que pueden hacerlo. Tenemos que democratizar la tecnología, que
todo el mundo pueda compartir los avances de la IA, pero deberemos
identificar los problemas, porque si no lo hacemos no los podremos
solucionar. Y debemos de solucionarlos antes de que se produzcan.
Escritor, consultor y experto internacional en inteligencia artificial, tecnologías disruptivas y marketing digital
El vertigen continua. L’evolució de GPT-3.5, el model de llenguatge d’intel·ligència artificial que alimentava el bot ChatGPT es diu GPT-4 i té bastanta més potència que el seu predecessor en moltes tasques. Una de les seves característiques més impressionants és que és una IA multimodal: pot treballar amb text, imatge i so, malgrat que l’empresa OpenAI de moment només permet l’accés al xat textual als subscriptors de pagament, per als quals ahir en va obrir l’ús.
https://12ft.io/proxy?ref=&q=https://www.lavanguardia.com/encatala/20230316/8829243/gpt-4-intel-ligencia-artificial-rivalitza-amb-els-humans-els-examens-universitaris.html
Francisco Herrera
“Es necesario regular y controlar los riesgos de la IA”
La inteligencia artificial, como otras tecnologías, puede plantear riesgos que están inherentes en los datos que se utilizan para que los sistemas inteligentes aprendan y en las aplicaciones que consideremos realizar, sistemas inteligentes que discriminan a minorías, que pueden afectar a los derechos fundamentales, o en escenarios donde una decisión errónea afecta a la seguridad de una persona. Estos escenarios de riesgo se recogen en el reglamento AI Act de la Comision Europea que plantea prácticas de inteligencia artificial prohibidas (Título II) y Sistemas de IA de alto riesgo (Título III) en términos de escenarios. Para estos últimos sistemas se establecen una serie de requisitos que deben cumplir (gestión de riesgos, gobernanza del dato, transparencia y comunicación de información a los usuarios, precisión, solidez y ciberseguridad, vigilancia humana.
Por ello, creo que más que "temor" hay que tener conciencia de los potenciales riesgos y trabajar en su regulación y control. Igual que se ha hecho con tecnologías como la nuclear. Cierto que la IA nos lleva a una disrupción tecnológica, con grandes cambios en los próximos años a nivel del trabajo o desarrollo económico, y por ello hay que prestarle una especial atención.
Director de Instituto Universitario Andaluz Interuniversitario en Data Science and Computational Intelligence
Alerta mundial sobre la IA-J.Juan
El gran salto delante de la inteligencia artificial con el GPT-4 va camino de convertirse más en un riesgo que en un avance para la sociedad. En las últimas semanas se ha pasado de la sorpresa agradable que aportan las grandes ventajas de la nueva tecnología a un creciente temor por la amenaza que supone por la pérdida de puestos de trabajo, la desinformación, la utilización armamentística o la facilidad para fomentar la ciberdelincuencia. Gobiernos y grandes corporaciones se han lanzado en tromba a experimentar con el nuevo juguete, pero también lo están haciendo toda clase de organizaciones con fines espurios. Los avances de la IA van tan rápido que un grupo de más de mil expertos de la inteligencia artificial, ejecutivos del sector y filósofos han firmado un manifiesto donde piden una pausa “inmediata” de seis meses para que dé tiempo a que puedan ser regulados. Entre los firmantes, referentes como Yuval Noah Harari, Elon Musk o Steve Wozniak.
Lo que piden los firmantes es que un grupo de expertos independientes desarrollen, implemente y auditen protocolos de seguridad para acotar su poder y que se creen organismos reguladores para poder castigar sus excesos. Si los gigantes tecnológicos tradicionales como Amazon, Google, Meta o Microsoft han sido tan difíciles de controlar por los gobiernos mundiales y disfrutan de una gran libertad para campar a sus anchas, no hace falta imaginar lo que podría suceder ahora con esta nueva aplicación.
Hace ya tiempo que diversos especialistas venían alertando de estos riesgos pero es la primera vez que hay un manifiesto conjunto tan claro y directo. La influencia de este colectivo es grande, pero las posibilidades de que paren este proceso son limitadas. Es el eterno problema de querer poner puertas al campo. El uso del GPT-4 está disparado y, como informábamos este pasado domingo, la información empieza a ser la primera víctima por la fácil manipulación que se puede hacer de noticias, fotos o vídeos. A falta de una gobernanza mundial, cuesta pensar cómo se puede detener esta vorágine. Este manifiesto es una alerta mundial que debería ser escuchada.
https://12ft.io/proxy?&q=https%3A%2F%2Fwww.lavanguardia.com%2Fopinion%2F20230330%2F8863892%2Falerta-mundial-sobre-ia.html
¿Quién teme al ChatGPT?
Empleos (tecnológicos) que todavía no existen
En este vídeo os mostramos varios ejemplos de lo que le podemos preguntar a GPT-4, la herramienta de inteligencia artificial de Open AI. Sus posibilidades de uso son infinitas, ya que es capaz de contestar a todo tipo de preguntas de forma coherente.
- https://www.youtube.com/watch?v=nY6_3LM2u-E