traductor

jueves, 30 de marzo de 2023

Cientos de expertos y empresarios piden suspender y regular los avances de la IA

 

  Cientos de expertos y empresarios piden suspender y regular los avances de la IA

Una carta abierta firmada por cientos de expertos en inteligencia artificial y empresarios pide que todos los laboratorios dedicados a la IA “pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4”. Entre los firmantes aparecen personalidades muy conocidas, como Elon Musk, uno de los fundadores de OpenAI; o Steve Wozniak, cofundador de Apple; académicos como Stuart Rusell y Ramón López de Mántaras; o escritores como Yuval Noah Harari. En total, 1.124 firmas.

La misiva, publicada por el Instituto Future of Life (futuro de la vida) y titulada Pausa en los experimentos gigantes de IA , apunta que “los sistemas de IA con una inteligencia competitiva con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, como demuestran numerosas investigaciones y reconocen los principales laboratorios de IA”.

Los especialistas cuestionan si debemos “arriesgarnos a perder el control de nuestra civilización”

Los firmantes se cuestionan si vale la pena dejar que los avances en IA impacten en la sociedad sin regulación alguna, como ha ocurrido hasta ahora: “¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?”.

Los firmantes responden que “estas decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas de IA potentes sólo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables”. La carta considera que hemos llegado a un punto de desarrollo de la inteligencia artificial en que es importante “obtener una revisión independiente antes de empezar a entrenar futuros sistemas”. Incluso proponen que se limite “la tasa de crecimiento de la computación utilizada para crear nuevos modelos”.

¿De qué serviría esa moratoria de seis meses? La propuesta de los firmantes es que se utilice “para desarrollar y aplicar conjuntamente una serie de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos i

Los firmantes creen que es necesario "“un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles y cada vez más grandes"

Con esos teóricos protocolos de seguridad compartidos a los que se deberían unir todos los sistemas de IA se garantizaría, según los firmantes, que estos serían “seguros más allá de toda duda razonable”. En su opinión, este parón no implicaría una pausa en el desarrollo de la tecnología de inteligencia artificial, aunque sí “un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles y cada vez más grandes con capacidades emergentes”.

La declaración reclama ese semestre de pausa “pública y verificable” y que, en caso contrario, haya intervención de los gobiernos para imponerla. Los proponentes creen que quienes desarrollan hoy la IA “deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza”.

Para esto sería necesario una serie de elementos como nuevas autoridades regulatorias; una supervisión y seguimiento de las IA más potentes; sistemas que permitan determinar la procedencia de un contenido, una “marca de agua que ayude a distinguir lo real de lo sintético”; auditoría y certificación; responsabilidad por los daños causados por la IA; financiación pública sólida para la investigación técnica; y “recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA”.

Francesc Bracero

Pause Giant AI Experiments: An Open Letter

Hacemos un llamamiento a todos los laboratorios de IA para que detengan de inmediato durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que los sistemas de IA con inteligencia humana competitiva que pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación[1] y lo reconocen los principales laboratorios de IA. [2] Como se afirma en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que los últimos meses han visto a los laboratorios de IA bloqueados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie - ni siquiera sus creadores - pueden entender, predecir o controlar de forma fiable. Sistemas contemporáneos de IA 

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than 

AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research[1] and acknowledged by top AI labs.[2] As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.

Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system's potential effects. OpenAI's recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now.

Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.

AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.[4] This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.

AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.

In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.

Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an "AI summer" in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.[5]  We can do so here. Let's enjoy a long AI summer, not rush unprepared into a fall.

La humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo logrado crear poderosos sistemas de IA, ahora podemos disfrutar de un "verano de IA" en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y damos a la sociedad la oportunidad de adaptarse. La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. [5] Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos sin preparación a una caída.

  • https://futureoflife.org/open-letter/pause-giant-ai-experiments/

 https://articulosclaves.blogspot.com/2023/03/la-carrera-por-la-ia-general-entre.html

https://articulosclaves.blogspot.com/2023/03/quien-teme-chatgpt-xferras.html

https://articulosclaves.blogspot.com/2023/03/chatgpt-ya-ha-creado-un-nuevo-trabajo.html 

¿Cómo se regulará la inteligencia artificial?

https://articulosclaves.blogspot.com/2023/03/como-se-regulara-la-inteligencia.html

https://articulosclaves.blogspot.com/2023/03/ai-tocracy.html

https://articulosclaves.blogspot.com/2023/03/en-la-era-de-la-inteligencia-artificial.html

https://articulosclaves.blogspot.com/2023/03/el-impacto-de-chatgpt-y-gpt-4-en-el.html 

https://notistecnicas.blogspot.com/2022/12/robots-realidad-virtual-ciberseguridad.html

https://notistecnicas.blogspot.com/2022/12/por-que-la-inteligencia-artificial-es.html

https://notistecnicas.blogspot.com/2022/12/primer-contacto-con-chatgpt.html

https://notistecnicas.blogspot.com/2023/03/las-nuevas-y-sorprendentes-ideas-de-la.html

https://notistecnicas.blogspot.com/2023/03/la-carrera-por-la-ia-general-entre.html

https://notistecnicas.blogspot.com/2023/03/en-la-era-de-la-inteligencia-artificial.html 

https://www.lavanguardia.com/vida/20230329/8863670/cientos-expertos-empresarios-piden-suspender-regular-avances-ia.html

Para que no pase como con las criptomonedas, usadas en unos casos para fomentar a emprendedores y en otros casos para redes de crimen organizado

https://avisosnadie.blogspot.com/2022/11/porque-no-se-regularon-las-criptomonedas.html

“Es temible el uso que ya se está haciendo de la inteligencia artificial”

TECNOLOGÍA

Cuatro expertos advierten de los riesgos que entraña una tecnología que está cambiando el mundo de forma irreversible

Inteligencia artificial robots

Inteligencia artificial robots

Getty Images/iStockphoto

Que la inteligencia artificial es uno de los avances más importantes de la tecnología de las últimas décadas -uno de los más disruptivos, como dicen los expertos- es a estas alturas una obviedad. Que levanta importantes recelos, también. Pero lo que ya es más sorprendente es que cuatro expertos en este campo, alerten, desde diversas disciplinas, de los peligros que encierra. La Vanguardia les ha preguntado qué hay que temer de la inteligencia artificial. La utilización armamentística o el impacto negativo en quien no tenga acceso a esta tecnología son algunos de los riesgos, pero, por encima de todo el mal uso que se le dé. “El problema no es Frankenstein, sino el doctor Frankenstein”, advierten.

LA PELL DE BRAU
El logotipo de ChatGPT en una ilustración

El logotipo de ChatGPT en una ilustración

Reuters
 
Un robot al teclado

Alerta mundial sobre la IA-J.Juan

Lo que piden los firmantes es que un grupo de expertos independientes desarrollen, implemente y auditen protocolos de seguridad para acotar su poder y que se creen organismos reguladores para poder castigar sus excesos. Si los gigantes tecnológicos tradicionales como Amazon, Google, Meta o Microsoft han sido tan difíciles de controlar por los gobiernos mundiales y disfrutan de una gran libertad para campar a sus anchas, no hace falta imaginar lo que podría suceder ahora con esta nueva aplicación.

FILE - The OpenAI logo is seen on a mobile phone in front of a computer screen displaying output from ChatGPT, Tuesday, March 21, 2023, in Boston. Are tech companies moving too fast in rolling out powerful artificial intelligence technology that could one day outsmart humans? That is the conclusion of a group of prominent computer scientists and other tech industry notables who are calling for a 6-month pause to consider the risks. Their petition published Wednesday, March 29, 2023, is a response to San Francisco startup OpenAI's recent release of GPT-4. (AP Photo/Michael Dwyer, File)

La llegada de ChatGPT de OpenAI en noviembre pasado ha revolucionado el uso de la IA

Michael Dwyer / LaPresse

Hace ya tiempo que diversos especialistas venían alertando de estos riesgos pero es la primera vez que hay un manifiesto conjunto tan claro y directo. La influencia de este colectivo es grande, pero las posibilidades de que paren este proceso son limitadas. Es el eterno problema de querer poner puertas al campo. El uso del GPT-4 está disparado y, como informábamos este pasado domingo, la información empieza a ser la primera víctima por la fácil manipulación que se puede hacer de noticias, fotos o vídeos. A falta de una gobernanza mundial, cuesta pensar cómo se puede detener esta vorágine. Este manifiesto es una alerta mundial que debería ser escuchada.

https://12ft.io/proxy?&q=https%3A%2F%2Fwww.lavanguardia.com%2Fopinion%2F20230330%2F8863892%2Falerta-mundial-sobre-ia.html

Empleos (tecnológicos) que todavía no existen

 -Como funciona Chap GPT

En este vídeo os mostramos varios ejemplos de lo que le podemos preguntar a GPT-4, la herramienta de inteligencia artificial de Open AI. Sus posibilidades de uso son infinitas, ya que es capaz de contestar a todo tipo de preguntas de forma coherente.  

  • https://www.youtube.com/watch?v=nY6_3LM2u-E

No hay comentarios: