Logotipo de Zephyrnet

¿Asistentes útiles, parejas románticas o estafadores? Segunda parte » Blog CCC

Fecha:

La CCC apoyó tres sesiones científicas en la Conferencia Anual de la AAAS de este año y, en caso de que no pudiera asistir en persona, recapitularemos cada sesión. Hoy resumiremos los aspectos más destacados de la parte de preguntas y respuestas de la sesión ".Grandes modelos lingüísticos: ¿ayudantes útiles, parejas románticas o estafadores?Este panel, moderado por Dra. María Gini, miembro del Consejo de la CCC y profesor de ingeniería y ciencias de la computación en la Universidad de Minnesota, destacado Dr.Ece Kamar, Director General de AI Frontiers en Microsoft Research, Dr. Hal Daumé III, profesor de Ciencias de la Computación en la Universidad de Maryland, y Dr. Jonathan mayo, profesor de Ciencias de la Computación en el Instituto de Ciencias de la Información de la Universidad del Sur de California.

A continuación se muestra el fascinante resumen de la parte de preguntas y respuestas del "Grandes modelos lingüísticos: ¿ayudantes útiles, parejas románticas o estafadores?"panel. ¿Es la IA capaz de amar? ¿Qué tipo de impactos podrían tener estos modelos en los niños? ¿Cómo se comparan las capacidades de IA de Estados Unidos? Descúbrelo a continuación:

P: Al implementar modelos de lenguaje de IA en contextos multilingües y multiculturales, ¿qué prácticas debemos realizar?

Dr. May: Al desarrollar tecnología y derribar muros, debería resultar más fácil para las personas hacer lo que quieren hacer. Lo que todos quieren hacer, no solo yo. Gracias AI, es genial centrarse en mí, pero deberíamos prestar atención al resto del mundo en general.

P: Algunas de estas cuestiones generales no es la primera vez que se plantean. Parece que la comunidad no va a llegar a esto por sí sola. Me pregunto si todos ustedes tienen ideas sobre cómo llevar estas conversaciones a la acción.

Dr. Kamar: Hay roles que deben desempeñar muchas partes diferentes. La evaluación es muy importante a la hora de representar diferentes culturas y poblaciones. Cuando los conjuntos de datos no tienen diversidad en la representación mundial, los sistemas resultantes no son representativos. Es necesario trabajar mucho en la formulación de mejores prácticas de evaluación, regulaciones y medidas de cumplimiento. La Casa Blanca ha asumido compromisos y el Plan para una Declaración de Derechos de la IA está comenzando. Se han implementado procesos en toda la industria, con muchas mentes brillantes trabajando juntas (no es perfecto, pero generalizar en toda la industria existe potencial). Se están celebrando reuniones para llegar a una convergencia sobre los estándares que actualmente comienzan; posiblemente en una futura regulación. ¿Cómo hacemos evaluaciones, análisis de seguridad, etc.? Ninguna de estas conversaciones tiene la diversidad que necesita haber en la sala. Piense en quién debe estar en la sala cuando se toman decisiones.

Dr. Daumé: Creo que cuando la gente habla de regulación, especialmente en IA, todo el mundo piensa en regulaciones punitivas. Pero esto también puede ser una regulación incentivadora. La financiación de los responsables de las políticas y del NSF podría promover el desarrollo de herramientas que nos ayuden a nosotros como nación y al mundo.

P: La financiación para la IA está muy por detrás en Estados Unidos en comparación con otros lugares del mundo. La nueva inversión de NSF asciende a unos 20 millones, una cantidad insignificante en comparación con las inversiones de la industria. El gobierno federal ha publicado informes de estudios durante años y la conclusión es que Estados Unidos tiene que ponerse en marcha. Me encanta la analogía del cambio de fase de Ece. El límite termodinámico con números está creciendo. Queremos IA abierta, ¿quién va a pagar por ella? No hay suficiente dinero. ¿Cuáles son tus sugerencias? ¿Abrir IA? Pero ni siquiera tenemos publicaciones de acceso abierto. ¿Le recomendaría al presidente no tener legislación?

Dr. May: Creo que hay dinero; Alguien me observó que logró convencer al gobierno para que hiciera girar partículas, pero no pudo desviarlas hacia nosotros.

Dr. Kamar: La razón por la que las empresas que construyen estos modelos obtienen estos resultados es a través de la centralización de recursos. Se obtienen muchas cosas de la escala. Deberíamos pensar en cómo centralizar las inversiones en el mundo académico para obtener un recurso compartido en lugar de tener muchos modelos diferentes. Estamos viendo que no se trata sólo de escala. No es algo que tengamos que hacer ahora, pero la arquitectura actual no es excelente. Tener buenas capacidades de IA no debería implicar sólo más dinero y más poder.

P: Sesgo de sobrerrepresentación en las respuestas. ¿Sabemos de dónde viene? Soy un experto en matemáticas y pienso que es una combinación de errores de redondeo lo que agrega sesgo. Si la representación fuera igual, me imagino que generaría una representación igual, ¿o seguiría ahí?

Dr. May: Mucho se reduce a las funciones de remate. El máximo suave es una parte importante del entrenamiento. El más alto quiere ser el número 1. No es que haya un resultado de lenguaje perfecto, pero queremos tener algún sesgo". Solo queremos minimizar el daño hacia las personas y muchas veces no lo reconocemos. La implementación sin comprensión es un problema. 

Dr. Daumé: Uno de los desafíos de estos modelos es que ya no existen modelos estrechos de IA. Dicen que pueden hacer cualquier cosa, por lo que es difícil probarlo todo.

P: Mencionaste que la IA es una herramienta o un reemplazo, ¿hacia dónde crees que irá?

Dr. Daumé: Se destina más dinero a la sustitución.

P: El título mencionaba la IA romántica. Quiero saber más sobre eso.

Dr. May: No hay suficiente intención en los modelos para que sean reemplazos románticos viables, pero son tan buenos como los humanos para reconocer patrones incluso cuando no existen.

Dr. Kamar: Le aconsejo que no piense en la IA tal como es ahora. Intente proyectarse hacia el futuro: imagine que en unos años estos sistemas estarán personalizados para usted. ¿Cuál es la relación que tendrá con ese sistema?

Dr. May: ¿Pero te amará?

Dr. Kamar: Te dirá que te ama.

Dr. May: ¿Pero es eso suficiente?

P: Quiero escuchar consejos para personas que no están en el campo de la IA. ¿Cómo podemos interactuar con estas herramientas? ¿Qué debemos saber?

Dr. Daumé: En la Universidad de Maryland tenemos muchas conversaciones sobre este tipo de cosas. Es fácil para mí decir que el periodismo será diferente dentro de 5 años, y otros campos también. Es incómodo decir que el papel del profesor será diferente dentro de 5 años, pero así será. Tengo colegas que utilizan diferentes complementos de LLM para propuestas y artículos; ya está sucediendo. Regularmente tengo preguntas de exámenes escritas mediante herramientas, pero tengo que verificar su precisión. Escribir preguntas de exámenes no me hace feliz, así que la IA puede quitármelo de encima. En la educación superior, tenemos que pensar más en ello. ¿Cómo está transformando nuestros empleos? Hay muchas discusiones en las universidades, pero no muchos recursos compartidos.

P: ¿Qué tan bienvenida será la IA en el futuro cuando se consideren aplicaciones militares? No se ha mencionado ninguna aplicación militar en esta sesión; sé que si leo correctamente a la gente hay una divergencia de opiniones sobre ese tema.

Dr. May: El ejército es amplio, gran parte de mi trabajo está patrocinado por el departamento de defensa. Es difícil responder específicamente, en general, el departamento de defensa (sin hablar por ellos) parece estar dando prioridad a la seguridad de los EE. UU., y continuará haciéndolo y aprovechando los LLM y la IA para ayudar a los EE. UU. a estar seguros.

Dr. Kamar: También tenemos que hablar sobre el doble uso. Si tomamos en cuenta el trabajo militar que se realiza en biología o ciberseguridad, podemos tomar las herramientas muy prometedoras que tenemos ahora y usarlas porque queremos sistemas seguros y nuevos medicamentos. Pero con cada buen uso tendrás un mal uso. ¿Cuáles son los casos de uso en los que no queremos que se utilice la IA? En aplicaciones de código abierto, la gente puede replicar estos modelos. ¿Cómo evitamos que las personas hagan daño en estos casos?

P: Al interactuar con modelos de lenguaje, los adultos entienden que no está vivo ni es consciente de sí mismo, pero ¿qué pasa varias generaciones después? ¿Niños que lo han tenido desde que recuerdan haber socializado? Tienen un tutor o profesor que es totalmente IA; El sistema está integrado con un instructor. Podrían crear un vínculo con la instrucción, pensar que tienen una gran relación y luego se elimina el programa. ¿Cuál es la psicología infantil de los vínculos socioemocionales con entidades no personales?

Dr. Kamar: Necesitamos investigación, investigación interdisciplinaria, y la necesitamos rápidamente. En cinco años, es posible que obtengamos estas respuestas, pero en ese tiempo la IA puede convertirse en una gran parte de la vida de mi hijo de 5 años. Tu pregunta es extremadamente importante. Hay investigaciones que muestran que incluso sistemas inocentes pueden tener puertas traseras. Necesitamos que expertos en seguridad y especialistas en desarrollo infantil tengan esas conversaciones hoy.

Dr. Daumé: No sé si alguien recuerda a la Barbie de vigilancia; aquí hay un gran problema de privacidad. Es una cuestión social más interesante. Las respuestas fueron adaptadas para ser demasiado positivas. Los niños decían cosas como Estoy enojado porque Sally no jugó conmigo y no dan sugerencias socialmente apropiadas. Me preocupan los agentes muy positivos, porque la positividad no siempre es la respuesta correcta.

Muchas gracias por leer y estad atentos al resumen de nuestro tercer y último panel en AAAS 2024.

punto_img

Información más reciente

punto_img