El mes pasado, un equipo de jugadores de IA autodidacta perdió espectacularmente contra profesionales humanos en un muy esperado combate cuerpo a cuerpo galáctico. Tomando lugar como parte de los Campeonatos Internacionales Dota 2 en Vancouver, Canadá, el juego demostró que en un pensamiento estratégico y una colaboración más amplios, los humanos aún permanecen en la cima.
La IA era una serie de algoritmos desarrollados por la organización sin ánimo de lucro OpenAI respaldada por Elon Musk . Colectivamente denominados OpenAI Five , los algoritmos usan el refuerzo para aprender a aprender cómo jugar el juego, y colaborar entre sí, desde cero.
A diferencia del ajedrez o Go, el videojuego de Dota 2 multijugador se considera mucho más difícil para las computadoras. La complejidad es solo una parte: la clave aquí es que un grupo de algoritmos de inteligencia artificial desarrolle un tipo de "sentido común", una especie de intuición sobre lo que otros planean hacer, y responda de manera amable hacia un objetivo común.
"La próxima gran cosa para AI es la colaboración", dijo el Dr. Jun Wang en University College London. Sin embargo, hoy en día, incluso los algoritmos de aprendizaje profundo de última generación fallan en el tipo de razonamiento estratégico necesario para comprender los incentivos y las metas de otra persona, ya sea otra IA o humano.
Lo que la IA necesita, dijo Wang, es un tipo de habilidad de comunicación profunda que surge de una capacidad cognitiva humana crítica: la teoría de la mente.
Teoría de la mente como una simulación
A la edad de cuatro años , los niños generalmente comienzan a comprender uno de los principios fundamentales de la sociedad: que sus mentes no son como otras mentes. Pueden tener diferentes creencias, deseos, emociones e intenciones.
Y la parte crítica: al imaginarse a sí mismos en el lugar de otras personas, pueden comenzar a predecir las acciones de otras personas. En cierto modo, sus cerebros comienzan a ejecutar vastas simulaciones de ellos mismos, de otras personas y de su entorno.
Al permitirnos entender groseramente las mentes de otras personas, la teoría de la mente es esencial para la cognición humana y las interacciones sociales. Está detrás de nuestra capacidad de comunicarnos efectivamente y colaborar para alcanzar objetivos comunes. Incluso es la fuerza motriz de las creencias falsas: ideas que las personas forman a pesar de que se desvían de la verdad objetiva.
Cuando la teoría de la mente se rompe, como a veces en el caso del autismo,las habilidades "humanas" esenciales, como la narración de cuentos y la imaginación, también se deterioran.
Para el Dr. Alan Winfield, profesor de ética robótica en la Universidad de West England, la teoría de la mente es la salsa secreta que eventualmente permitirá que AI "entienda" las necesidades de personas, cosas y otros robots.
"La idea de poner una simulación dentro de un robot ... es una manera muy buena de permitir que realmente prediga el futuro", dijo .
A diferencia del aprendizaje automático, en el que múltiples capas de redes neuronales extraen patrones y "aprenden" de grandes conjuntos de datos, Winston está promoviendo algo completamente diferente. En lugar de confiar en el aprendizaje, la IA sería preprogramada con un modelo interno de sí mismo y el mundo que le permite responder preguntas simples de "y si".
Por ejemplo, al navegar por un pasillo estrecho con un robot que se aproxima, la IA podría simular girar a la izquierda, a la derecha o continuar su camino y determinar qué acción evitará la colisión. Este modelo interno esencialmente actúa como un "motor de la consecuencia", dijo Winston, una especie de "sentido común" que ayuda a instruir sus acciones al predecir las de los demás a su alrededor.
En un artículo publicado a principios de este año, Winston mostró un robot prototipo que de hecho podría lograr este objetivo. Al anticipar el comportamiento de otros a su alrededor, un robot navegó con éxito por un corredor sin colisiones. Esto no es nada nuevo; de hecho, el robot "consciente" tardó más de un 50% más en completar su recorrido que sin la simulación.
Pero para Winston, el estudio es una prueba de concepto de que su simulación interna funciona: [es] "un punto de partida poderoso e interesante en el desarrollo de la teoría de la mente artificial", concluyó.
Finalmente, Winston espera dotar a AI de una especie de habilidad para contar historias. El modelo interno que la IA tiene de sí mismo y de otros le permite simular diferentes escenarios y, de manera crucial, contar una historia de cuáles eran sus intenciones y objetivos en ese momento.
Esto es drásticamente diferente de los algoritmos de aprendizaje profundo, que normalmente no pueden explicar cómo llegaron a sus conclusiones. El modelo de "caja negra" de aprendizaje profundo es un terrible obstáculo para construir confianza en estos sistemas; el problema es especialmente notable para los robots que cuidan en los hospitales o para los ancianos.
Una inteligencia artificial armada con la teoría de la mente podría simular la mente de sus compañeros humanos para desentrañar sus necesidades. Luego podría determinar las respuestas apropiadas y justificar esas acciones para el humano antes de actuar sobre ellas. Menos incertidumbre da como resultado más confianza.
Teoría de la mente en una red neuronal
DeepMind adopta un enfoque diferente: en lugar de un motor de consecuencias preprogramado, desarrollaron una serie de redes neuronales que muestran una especie de teoría de la mente.
La IA, " ToMnet " , puede observar y aprender de las acciones de otras redes neuronales. ToMNet es un colectivo de tres redes neuronales: el primero se basa en las tendencias de otras IA basadas en una "hoja de antecedentes" de sus acciones pasadas. El segundo forma un concepto general de su estado de ánimo actual: sus creencias e intenciones en un momento particular. La salida de ambas redes luego ingresa a la tercera, que predice las acciones de la IA en función de la situación. Al igual que otros sistemas de aprendizaje profundo, ToMnet mejora con la experiencia.
En un experimento , ToMnet "observó" a tres agentes de inteligencia artificial maniobrando alrededor de una habitación recogiendo cajas de colores. Los AIs tenían tres sabores: uno era ciego, en el sentido de que no podía calcular la forma y el diseño de la habitación. Otro era amnésico; estos muchachos tuvieron problemas para recordar sus últimos pasos. El tercero podría ver y recordar.
Después del entrenamiento, ToMnet comenzó a predecir el sabor de una IA observando sus acciones: los ciegos tienden a moverse a lo largo de las paredes, por ejemplo. También podría predecir correctamente el comportamiento futuro de la IA y, lo que es más importante, comprender cuándo una IA tenía una creencia falsa.
Por ejemplo, en otra prueba, el equipo programó que una IA fuera miope y cambió el diseño de la habitación. Los agentes con mejor visión se adaptaron rápidamente a la nueva disposición, pero los chicos miopes se mantuvieron en sus caminos originales, creyendo falsamente que todavía estaban navegando en el viejo entorno. ToMnet se burló de esta peculiaridad, prediciendo con precisión el resultado al (en esencia) ponerse en los zapatos digitales de la IA miope.
Para la Dra. Alison Gopnik, una psicóloga del desarrollo de UC Berkeley que no participó en el estudio, los resultados muestran que las redes neuronales tienen una sorprendente capacidad de aprender habilidades por sí mismas al observar a los demás. Pero todavía es demasiado pronto para decir que estos AI desarrollaron una teoría de la mente artificial.
El "entendimiento" de ToMen está profundamente entrelazado con su contexto de entrenamiento -la sala, la IA de selección de cajas, etc.-, explicó el Dr. Josh Tenenbaum del MIT, que no participó en el estudio. En comparación con los niños, la restricción hace que ToMnet sea mucho menos capaz de predecir comportamientos en entornos radicalmente nuevos. También sería difícil modelar las acciones de una IA o humano muy diferente.
Pero tanto los esfuerzos de Winston como los de DeepMind muestran que las computadoras comienzan a "entenderse" entre sí, incluso si esa comprensión es aún rudimentaria.
Y a medida que continúan captando mejor las mentes de los demás, se están acercando cada vez más a la disección de los nuestros: confusos y complicados que podamos ser.
Comentarios
Publicar un comentario
Tu opinión importa !!!!!!!!!
Saludos crema