¿Nervioso por ChatGPT?  Prueba ChatGPT con un martillo

Blog

HogarHogar / Blog / ¿Nervioso por ChatGPT? Prueba ChatGPT con un martillo

Mar 17, 2024

¿Nervioso por ChatGPT? Prueba ChatGPT con un martillo

Bruce Schneier Nathan Sanders En marzo pasado, apenas dos semanas después del lanzamiento de GPT-4, los investigadores de Microsoft anunciaron silenciosamente un plan para compilar millones de API, herramientas que pueden hacer de todo, desde

Bruce Schneier

En marzo pasado, apenas dos semanas después del lanzamiento de GPT-4, los investigadores de Microsoft anunciaron silenciosamente un plan para compilar millones de API (herramientas que pueden hacer de todo, desde pedir una pizza hasta resolver ecuaciones físicas y controlar el televisor de la sala de estar) en un compendio que se haría accesible a grandes modelos de lenguaje (LLM). Este fue solo un hito en la carrera entre la industria y el mundo académico para encontrar las mejores formas de enseñar a los LLM cómo manipular herramientas, lo que potenciaría el potencial de la IA más que cualquiera de los impresionantes avances que hemos visto hasta la fecha.

El proyecto de Microsoft tiene como objetivo enseñar a la IA cómo utilizar todas y cada una de las herramientas digitales de una sola vez, un enfoque inteligente y eficiente. Hoy en día, los LLM pueden hacer un buen trabajo recomendándole ingredientes para pizza si describe sus preferencias dietéticas y puede redactar un diálogo que podría utilizar cuando llame al restaurante. Pero la mayoría de las herramientas de inteligencia artificial no pueden realizar pedidos, ni siquiera en línea. En contraste, la herramienta Asistente de Google, de siete años de antigüedad, puede sintetizar una voz en el teléfono y completar un formulario de pedido en línea, pero no puede elegir un restaurante ni adivinar su pedido. Sin embargo, al combinar estas capacidades, una herramienta que utilice IA podría hacerlo todo. Un LLM con acceso a sus conversaciones pasadas y a herramientas como calculadoras de calorías, una base de datos de menús de restaurantes y su billetera de pago digital podría determinar que está tratando de perder peso y desea una opción baja en calorías; encuentre el restaurante más cercano con los ingredientes que le gusten. y realizar el pedido de entrega. Si tiene acceso a su historial de pagos, podría incluso adivinar con qué generosidad suele dar propinas. Si tiene acceso a los sensores de su reloj inteligente o rastreador de actividad física, podría detectar cuándo su nivel de azúcar en la sangre es bajo y pedir el pastel antes de que se dé cuenta de que tiene hambre.

Nathan Sanders es un científico de datos afiliado al Centro Berkman Klein de la Universidad de Harvard. Escribe extensamente sobre los efectos de la IA en la democracia.

Bruce Schneier es un tecnólogo de seguridad. Ha escrito más de una docena de libros, entre ellos “La mente de un hacker: cómo los ricos y poderosos doblan las reglas de la sociedad y cómo doblarlas hacia atrás”. Enseña en la Harvard Kennedy School y vive en Massachusetts.

Quizás las aplicaciones potenciales más convincentes del uso de herramientas sean aquellas que brindan a las IA la capacidad de mejorar. Supongamos, por ejemplo, que le pide ayuda a un chatbot para interpretar alguna faceta de la antigua ley romana de la que nadie había pensado incluir ejemplos en la capacitación original del modelo. Un LLM facultado para buscar en bases de datos académicas y desencadenar su propio proceso de formación podría afinar su comprensión del derecho romano antes de responder. El acceso a herramientas especializadas podría incluso ayudar a que un modelo como este se explique mejor. Si bien los LLM como GPT-4 ya hacen un trabajo bastante bueno al explicar su razonamiento cuando se les pregunta, estas explicaciones surgen de una "caja negra" y son vulnerables a errores y alucinaciones. Pero un LLM que utilice herramientas podría analizar sus propios aspectos internos, ofreciendo evaluaciones empíricas de su propio razonamiento y explicaciones deterministas de por qué produjo la respuesta que produjo.

Si se le da acceso a herramientas para solicitar comentarios humanos, un LLM que utilice herramientas podría incluso generar conocimiento especializado que aún no está capturado en la web. Podría publicar una pregunta en Reddit o Quora o delegar una tarea a un humano en Mechanical Turk de Amazon. Incluso podría buscar datos sobre las preferencias humanas mediante encuestas, ya sea para proporcionarle una respuesta directamente o para perfeccionar su propia capacitación para poder responder mejor a las preguntas en el futuro. Con el tiempo, las IA que utilizan herramientas podrían empezar a parecerse mucho a los humanos que utilizan herramientas. Un LLM puede generar código mucho más rápido que cualquier programador humano, por lo que puede manipular los sistemas y servicios de su computadora con facilidad. También podría usar el teclado y el cursor de su computadora como lo haría una persona, permitiéndole usar cualquier programa que usted utilice. Y podría mejorar sus propias capacidades, utilizando herramientas para hacer preguntas, realizar investigaciones y escribir código para incorporarlo a sí mismo.

Es fácil ver cómo este tipo de uso de herramientas conlleva enormes riesgos. Imagine que un LLM pudiera encontrar el número de teléfono de alguien, llamarlo y grabar subrepticiamente su voz, adivinar qué banco usa según los proveedores más importantes de su área, hacerse pasar por él en una llamada telefónica con el servicio de atención al cliente para restablecer su contraseña y liquidar su cuenta para hacer una donación a un partido político. Cada una de estas tareas invoca una herramienta simple (una búsqueda en Internet, un sintetizador de voz, una aplicación bancaria) y el LLM escribe la secuencia de acciones utilizando las herramientas.

Todavía no sabemos qué tan exitosos serán estos intentos. Por muy fluidos que sean los LLM, no fueron creados específicamente para operar herramientas, y queda por ver cómo sus primeros éxitos en el uso de herramientas se traducirán en casos de uso futuros como los que se describen aquí. Como tal, darle a la IA generativa actual acceso repentino a millones de API, como planea hacer Microsoft, podría ser un poco como dejar suelto a un niño pequeño en un depósito de armas.

angela cortadora de agua

Julian Chokkattu

Lexi Pandell

caballero

Empresas como Microsoft deberían tener especial cuidado a la hora de conceder a las IA acceso a determinadas combinaciones de herramientas. El acceso a herramientas para buscar información, realizar cálculos especializados y examinar sensores del mundo real conlleva un mínimo de riesgo. La capacidad de transmitir mensajes más allá del usuario inmediato de la herramienta o de utilizar API que manipulen objetos físicos como cerraduras o máquinas conlleva riesgos mucho mayores. La combinación de estas categorías de herramientas amplifica los riesgos de cada una.

Los operadores de los LLM más avanzados, como OpenAI, deberían seguir actuando con cautela a medida que comienzan a permitir el uso de herramientas y deberían restringir el uso de sus productos en dominios sensibles como la política, la atención médica, la banca y la defensa. Pero parece claro que estos líderes de la industria ya han perdido en gran medida su ventaja en torno a la tecnología LLM: el código abierto se está poniendo al día. Al reconocer esta tendencia, Meta adoptó un enfoque de “si no puedes vencerlos, únete a ellos” y adoptó parcialmente el papel de proporcionar plataformas LLM de código abierto.

En el frente político, las recetas nacionales (y regionales) de IA parecen inútiles. Europa es la única jurisdicción importante que ha logrado avances significativos en la regulación del uso responsable de la IA, pero no está del todo claro cómo los reguladores lo harán cumplir. Y Estados Unidos está tratando de ponerse al día y parece destinado a ser mucho más permisivo al permitir incluso riesgos considerados “inaceptables” por la UE. Mientras tanto, ningún gobierno ha invertido en un modelo de IA de “opción pública” que ofrezca una alternativa a las grandes tecnologías que sea más receptiva y responsable ante sus ciudadanos.

Los reguladores deberían considerar qué pueden hacer las IA de forma autónoma, por ejemplo, si se les puede asignar la propiedad o registrar una empresa. Quizás las transacciones más sensibles deberían requerir un ser humano verificado en el circuito, incluso a costa de cierta fricción adicional. Nuestro sistema legal puede ser imperfecto, pero sabemos en gran medida cómo responsabilizar a los humanos por sus fechorías; el truco consiste en no permitir que desvíen sus responsabilidades a terceros artificiales. Deberíamos seguir buscando soluciones regulatorias específicas para la IA y al mismo tiempo reconocer que no son suficientes por sí solas.

También debemos prepararnos para las formas benignas en que el uso de herramientas de IA podría afectar a la sociedad. En el mejor de los casos, un LLM de este tipo puede acelerar rápidamente un campo como el descubrimiento de fármacos, y la oficina de patentes y la FDA deberían prepararse para un aumento espectacular en el número de candidatos a fármacos legítimos. Deberíamos remodelar la forma en que interactuamos con nuestros gobiernos para aprovechar las herramientas de inteligencia artificial que nos brindan a todos un potencial dramáticamente mayor para hacer oír nuestra voz. Y debemos asegurarnos de que los beneficios económicos de la IA superinteligente y que ahorra mano de obra se distribuyan equitativamente.

Podemos debatir si los LLM son verdaderamente inteligentes o conscientes, o si tienen agencia, pero las IA se convertirán en usuarios de herramientas cada vez más capaces de cualquier manera. Algunas cosas son mayores que la suma de sus partes. Una IA con la capacidad de manipular e interactuar incluso con herramientas simples será mucho más poderosa que las herramientas mismas. Asegurémonos de estar preparados para ellos.

WIRED Opinion publica artículos de colaboradores externos que representan una amplia gama de puntos de vista. Lee más opiniones aquí. Envíe un artículo de opinión en[email protected].

Nathan SandersBruce Schneier[email protected]