Google compartió conocimiento de IA con el mundo hasta que ChatGPT se puso al día



En febrero, Jeff Dean, superior de inteligencia sintético de Google desde hace mucho tiempo, anunció un sorprendente cambio de política a su personal: tenían que privarse de compartir su trabajo con el mundo exógeno.

Durante primaveras, Dean había dirigido su área como una universidad, alentando a los investigadores a difundir prolíficamente artículos académicos; expulsaron casi 500 estudios desde 2019, según Sitio web de investigación de Google.

Pero el impulso de OpenAI innovador ChatGPT tres meses antaño había cambiado las cosas. La nueva empresa de San Francisco se mantuvo al día con Google leyendo los artículos científicos del equipo, dijo Dean en la reunión trimestral de la división de investigación de la compañía. De hecho, los transformadores, una parte fundamental de la última tecnología de inteligencia sintético y la T en ChatGPT, se originaron en un estudio de google.

Las cosas tenían que cambiar. Google aprovecharía sus propios descubrimientos de IA, compartiendo documentos solo posteriormente de que el trabajo de laboratorio se haya convertido en productos, dijo Dean, según dos personas con conocimiento de la reunión, que hablaron bajo condición de anonimato para compartir información privada.

El cambio de política es parte de un cambio decano adentro de Google. Considerado durante mucho tiempo el líder en IA, el coloso tecnológico ha entrado en modo defensivo, primero para defenderse de una flota de ágiles competidores de IAy ahora para proteger su negocio principal de búsqueda, el precio de las acciones y, potencialmente, su futuro, que según los ejecutivos está entrelazado con la IA.

En artículos de opinión, podcasts y apariciones en televisión, Google El CEO Sundar Pichai ha pedido precaución en IA. “A escalera social, puede causar mucho daño”, advirtió en “60 Minutes” en abril. describiendo cómo la tecnología podría potenciar la creación de imágenes y videos falsos.

Pero en los últimos meses, Google ha revisado sus operaciones de inteligencia sintético con el objetivo de exhalar productos rápidamente, según entrevistas con 11 empleados actuales y anteriores de Google, la mayoría de los cuales hablaron bajo condición de anonimato para compartir información privada.

Ha bajado el lista para exhalar herramientas experimentales de IA a grupos más pequeños, desarrollando un nuevo conjunto de métricas de evaluación y prioridades en áreas como la equidad. Todavía fusionó Google Brain, una estructura dirigida por Dean y moldeada por los intereses de los investigadores, con DeepMind, una pelotón rival de IA con un enfoque único de en lo alto en dirección a debajo, para “acelerar nuestro progreso en IA”, escribió Pichai en un anuncio. Esta nueva división no estará a cargo de Dean, sino de Demis Hassabis, CEO de DeepMind, un agrupación que algunos consideran que tiene una marca más fresca y dinámica.

En una conferencia a principios de esta semana, Hassabis dijo que la IA estaba potencialmente más cerca de lograr inteligencia a nivel humano que la mayoría de los otros expertos en IA han predicho. “Podríamos estar a solo unos primaveras, tal vez … una plazo de distancia”, dijo.

La rapidez de Google se presenta como una disonancia de voces, incluidas las notables exalumnas de la empresa y veteranos de la industria – están pidiendo a los desarrolladores de IA que reduzcan la velocidad, advirtiendo que la tecnología se está desarrollando más rápido de lo que incluso sus inventores anticiparon. Geoffrey Hinton, uno de los pioneros de la tecnología de IA que se unió a Google en 2013 y recientemente dejó la empresa, desde entonces ha tenido un hostigamiento mediático. Advertencia sobre los peligros de la IA superinteligente escapando del control humano. Pichai, cercano con los directores ejecutivos de OpenAI y Microsoft, se reunirá con funcionarios de la Casa Blanca el jueves, como parte del esfuerzo continuo de la oficina para señalar el progreso en medio de la preocupación pública, mientras los reguladores de todo el mundo discuten nuevas reglas sobre la tecnología.

Mientras tanto, una carrera armamentista de IA continúa sin supervisión, y las preocupaciones de las empresas de parecer imprudentes pueden erosionar frente a la competencia.

“No es que fueran cautelosos, no estaban dispuestos a socavar sus flujos de ingresos y modelos comerciales existentes”, dijo el cofundador de DeepMind, Mustafa Suleyman, quien dejó Google en 2022. y lanzó Pi, una IA personalizada de su nueva empresa Inflection AI esta semana. “Es solo cuando hay una amenaza externa vivo que comienzan a despertarse”.

Pichai ha subrayado que los esfuerzos de Google para acelerar no significan tomar atajos. “El ritmo del progreso ahora es más rápido que nunca”, escribió en el anuncio de fusión. “Para avalar el explicación audaz y responsable de la IA universal, estamos creando una pelotón que nos ayudará a construir sistemas más capaces de forma más segura y responsable”.

Un ex investigador de Google AI describió el cambio como que Google pasó de “tiempos de paz” a “tiempos de conflagración”. La publicación de investigaciones ayuda a hacer crecer el campo en universal, Brian Kihoon Lee, un investigador de Google Brain que fue eliminado como parte de la compañía despidos masivos en enero, escribió en una publicación de blog de abril. Pero una vez que las cosas se vuelven más competitivas, el cálculo cambia.

“En tiempos de conflagración, además importa cuánto crece la porción del pastel de sus competidores”, dijo Lee. Se negó a comentar más para esta historia.

“En 2018, establecimos una estructura de gobierno interno y un proceso de revisión integral, con cientos de revisiones en todas las áreas de productos hasta el momento, y continuamos aplicando ese proceso a las tecnologías basadas en IA que lanzamos externamente”, dijo Brian Gabriel, portavoz de Google. “La IA responsable sigue siendo una de las principales prioridades de la empresa”.

Pichai y otros ejecutivos han comenzado a musitar cada vez más sobre la posibilidad de que la tecnología de IA iguale o supere la inteligencia humana, un concepto conocido como inteligencia universal sintético o AGI. El una vez término marginalasociado con la idea de que la IA representa un peligro existencial para la humanidad, es fundamental para la encargo de OpenAI y había sido recogido por DeepMind, pero fue evitado por los altos mandos de Google.

Para los empleados de Google, este enfoque acelerado es una oración mixta. La obligación de aprobación adicional antaño de difundir en investigación relevante de IA podría significar que los investigadores serán “recopilados” en sus descubrimientos en el mundo ultrarrápido de la IA generativa. A algunos les preocupa que podría estar de moda para callar aplastar papeles controvertidoscomo un estudio de 2020 sobre los daños de los grandes modelos de estilo, en coautoría de los líderes del equipo de inteligencia sintético ética de Google, Timnit Gebru y Margaret Mitchell.

Pero otros reconocen que Google ha perdido a muchos de sus principales investigadores de inteligencia sintético en el extremo año por las nuevas empresas consideradas de vanguardia. Parte de este éxodo se debió a la frustración de que Google no estaba haciendo movimientos aparentemente obvios, como incorporar chatbots en la búsqueda, obstaculizado por preocupaciones sobre daños legales y de reputación.

En la transmisión en vivo de la reunión trimestral, el anuncio de Dean obtuvo una respuesta propicio y los empleados compartieron emoji optimistas, con la esperanza de que el pivote ayudaría a Google a recuperar la superioridad. “OpenAI nos estaba ganando en nuestro propio articulación”, dijo un empleado que asistió a la reunión.

Para algunos investigadores, el anuncio de Dean en la reunión trimestral fue lo primero que escucharon sobre las restricciones a la publicación de investigaciones. Pero para aquellos que trabajan en grandes modelos de estilo, una tecnología central para los chatbots, las cosas se han vuelto más estrictas desde que los ejecutivos de Google emitieron por primera vez un “Código rojo” para centrarse en la IA en diciembre, posteriormente de que ChatGPT se convirtiera en un aberración instantáneo.

Obtener la aprobación de los papeles podría requerir revisiones intensas repetidas con personal senior, según un ex investigador. Muchos científicos se fueron a trabajar a Google con la promesa de poder seguir participando en la conversación más amplia en su campo. Otra ronda de investigadores se fue conveniente a las restricciones de publicación.

Los estándares cambiantes para determinar cuándo un producto de IA está perspicaz para su impulso ha provocado inquietud. La valentía de Google de exhalar su chatbot de inteligencia sintético Bard e implementar estándares más bajos en algunos puntajes de prueba para productos experimentales de IA ha provocado una reacción interna, según un informe en Bloomberg.

Pero otros empleados sienten que Google ha hecho un trabajo cuidadoso al tratar de establecer estándares en torno a este campo emergente. A principios de 2023, Google compartió una inventario de unas 20 prioridades políticas en torno a Bard desarrolladas por dos equipos de IA: el equipo de Innovación Responsable y la IA Responsable. Un empleado calificó las reglas como “razonablemente claras y relativamente sólidas”.

Para aparecer, otros tenían menos fe en las partituras y encontraron que el adiestramiento era en gran medida performativo. Sintieron que el notorio estaría mejor atendido por la transparencia externa, como documentar lo que hay adentro de los datos de capacitación o brindar el maniquí a expertos externos.

Los consumidores recién comienzan a cultivarse sobre los riesgos y las limitaciones de los modelos de estilo extenso, como la tendencia de la IA a inventar hechos. Pero El Mahdi El Mhamdi, un investigador sénior de Google Research, que renunció en febrero por la errata de transparencia de la empresa sobre la ética de la IA, dijo que las empresas tecnológicas pueden acaecer sido usar esta tecnología para capacitar a otros sistemas de maneras que pueden ser difíciles de rastrear incluso para los empleados.

Cuando usa Google Translate y YouTube, “ya ​​veo la volatilidad y la inestabilidad que solo podrían interpretar por el uso de estos modelos y conjuntos de datos”, dijo El Mhamdi.

Muchas empresas ya han demostrado los problemas de moverse rápido y exhalar herramientas inacabadas a grandes audiencias.

“Opinar, ‘Oye, aquí está este sistema mágico que puede hacer lo que quieras’, y luego los usuarios comienzan a usarlo de formas que no anticipan, creo que es suficiente malo”, dijo el profesor de Stanford Percy Liang, y agregó que los descargos de responsabilidad en grafema pequeña en ChatGPT no dejan claras sus limitaciones.

Es importante evaluar rigurosamente las capacidades de la tecnología, añadió. Liang recientemente fue coautor de un artículo que examina las herramientas de búsqueda de IA como el nuevo Bing. Descubrió que solo más o menos del 70 por ciento de sus citas eran correctas.

Google ha invertido peculio en el explicación de tecnología de inteligencia sintético durante primaveras. A principios de la plazo de 2010, comenzó a comprar nuevas empresas de IA, incorporando su tecnología a su conjunto de productos en constante crecimiento. En 2013, incorporó a Hinton, el pionero del software de inteligencia sintético cuyo trabajo investigador ayudó a formar la almohadilla de la coetáneo cosecha dominante de tecnologías. Un año posteriormente, compró DeepMind, fundada por Hassabis, otro destacado investigador de IA, por 625 millones de dólares.

Poco posteriormente de ser afamado director ejecutante de Google, Pichai declaró que Google se convertiría en una empresa “IA first”, integrando la tecnología en todos sus productos. A lo generoso de los primaveras, los equipos de investigación de IA de Google desarrollaron avances y herramientas que beneficiarían a toda la industria. Inventaron “transformadores”, un nuevo tipo de maniquí de IA que podría digerir conjuntos de datos más grandes. La tecnología se convirtió en la almohadilla de los “modelos de estilo extenso” que ahora dominan la conversación sobre IA, incluidos GPT3 y GPT4 de OpenAI.

A pesar de estos avances constantes, fue ChatGPT, creado por el extraño más pequeño OpenAI, lo que desencadenó una ola de fascinación y entusiasmo más amplios en la IA. Fundado para proporcionar un contrapeso a la toma de control del campo por parte de las grandes empresas tecnológicas, OpenAI enfrentó menos pesquisa que sus rivales más grandes y estaba más dispuesto a poner sus modelos de IA más poderosos en manos de personas comunes.

“Ya es difícil en cualquier estructura cerrar la brecha entre los científicos reales que están avanzando en los modelos fundamentales contra las personas que están tratando de construir productos”, dijo De Kai, investigador de IA en la Universidad de California Berkeley que trabajó en el plan de corta duración de Google. fuera de la comité asesora de IA en 2019. “Cómo integrar eso de una forma que no haga tropezar su capacidad de tener equipos que están impulsando el estado del arte, eso es un desafío”.

Mientras tanto, Google ha tenido cuidado de etiquetar su chatbot Bard y sus otros nuevos Productos de IA como “experimentos”. Pero para una empresa con miles de millones de usuarios, incluso los experimentos a pequeña escalera afectan a millones de personas y es probable gran parte del mundo entrará en contacto con la IA generativa a través de las herramientas de Google. El gran tamaño de la empresa significa que su cambio en dirección a el impulso más rápido de nuevos productos de IA está generando preocupaciones en una amplia escala de reguladores, investigadores de IA y líderes empresariales.

La invitación a la reunión de la Casa Blanca del jueves recordó a los directores ejecutivos que el presidente Biden ya había “dejado en claro nuestra expectativa de que las empresas como la suya deben cerciorarse de que sus productos sean seguros antaño de ponerlos a disposición del notorio”.

nota

Esta historia se actualizó para aclarar que De Kai es investigador de la Universidad de California Berkeley.



Source link

Next Post

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias recientes