Cómo la IA conversacional está reinventando la experiencia de los empleados

Crear una experiencia de trabajo positiva suma requiere crear experiencias de empleado de «grado de consumidor». Pero, el lugar de trabajo de hoy está plagado de herramientas toscas, procesos antiguos y tiempos de espera ridículamente largos. Claramente, esto conduce a una mala experiencia y, a su vez, más desgaste. Tarde o temprano, las organizaciones que no se centren en mejorar la experiencia de sus empleados perderán más personas, clientes y se convertirán en víctimas de mayores costos de reclutamiento, capacitación y adquisición de clientes.

Leer más

¿Por qué los métodos de gradiente de políticas funcionan tan bien en Cooperative MARL? Evidencia de representación de póliza


En el aprendizaje por refuerzo multiagente cooperativo (MARL), debido a su en política naturaleza, se cree que los métodos de gradiente de política (PG) son menos eficientes en la muestra que los métodos de descomposición de valor (VD), que son fuera de la política. Sin embargo, algunos reciente empírico estudios demostrar que con la representación de entrada adecuada y el ajuste de hiperparámetros, el PG multiagente puede lograr un rendimiento sorprendentemente fuerte en comparación con los métodos de VD fuera de la política.

¿Por qué los métodos de PG podrían funcionar tan bien? En esta publicación, presentaremos un análisis concreto para mostrar que en ciertos escenarios, por ejemplo, entornos con un panorama de recompensas altamente multimodal, VD puede ser problemático y conducir a resultados no deseados. Por el contrario, los métodos de PG con políticas individuales pueden converger a una política óptima en estos casos. Además, los métodos PG con políticas autorregresivas (AR) pueden aprender políticas multimodales.



Figura 1: representación de política diferente para el juego de permutación de 4 jugadores.

Leer más