Menú Cerrar

Cómo capitalizar la IA generativa

Cómo capitalizar la IA generativa

consumo, IA generativa, Inteligencia Artificial

Los líderes empresariales están luchando por entender cuán seriamente deben tomar el último fenómeno en el mundo de la inteligencia artificial: la IA generativa. Por un lado, ya ha demostrado una capacidad impresionante para crear nuevo contenido como música, discurso, texto, imágenes y video, y actualmente se utiliza, por ejemplo, para escribir software, transcribir interacciones de médicos con sus pacientes y permitir a las personas conversar con un sistema de gestión de relaciones con los clientes. Por otro lado, está lejos de ser perfecto: a veces produce resultados distorsionados o completamente fabricados y puede ser ajeno a las preocupaciones de privacidad y derechos de autor.

¿Se exagera la importancia de la IA generativa? ¿Vale la pena asumir sus riesgos en comparación con las posibles recompensas? ¿Cómo pueden las empresas determinar dónde aplicarla mejor? ¿Cuáles deberían ser sus primeros pasos? Para brindar orientación, este artículo se basa en nuestra investigación que comprende estudios de proyectos específicos de IA generativa y análisis amplios de cómo la tecnología afectará las tareas y los empleos en toda la economía.

Una gran empresa de software empresarial que uno de nosotros (Erik) estudió junto con Lindsey Raymond y Danielle Li del MIT ilustra que hay formas de aprovechar los beneficios de la IA generativa y contener sus riesgos. Los agentes de servicio al cliente de la empresa, que ayudan a las personas a través de chats en línea, enfrentaban un desafío común: los nuevos empleados necesitaban varios meses para ponerse al día en cómo responder preguntas técnicas y lidiar con clientes confundidos, pero muchos renunciaban antes de volverse competentes. La empresa vio la IA generativa como una solución. Contrató a Cresta (que Erik ha estado asesorando), una startup de IA generativa, para implementar dos tipos de inteligencia artificial. El primero era un modelo de lenguaje grande (LLM), diseñado para comprender y responder a los humanos en sus propias palabras, que «escuchaba» los chats. Se ajustó para reconocer frases que conducían a buenos resultados de servicio al cliente en diversas situaciones. Pero debido al riesgo de confabulaciones, o respuestas plausibles pero incorrectas, el sistema también utilizaba una técnica de aprendizaje automático llamada aprendizaje en contexto, que extraía respuestas de manuales de usuario y documentos relevantes.

El LLM monitoreaba los chats en línea en busca de frases específicas y, cuando una de ellas ocurría, basaba sus respuestas en la información del sistema de aprendizaje en contexto. Como una salvaguardia adicional, no respondía directamente a las consultas. En cambio, los agentes humanos eran libres de aplicar su sentido común para decidir si usar o ignorar las sugerencias del LLM.

Después de una prueba piloto de siete semanas, el sistema se implementó para más de 1,500 agentes. En un plazo de dos meses, aparecieron múltiples beneficios. Tanto el número promedio de problemas resueltos por hora como la cantidad de chats que un agente podía manejar simultáneamente aumentaron casi un 15%; el tiempo promedio de chat disminuyó casi un 10%; y un análisis de los registros de chat mostró que, inmediatamente después de implementar el nuevo sistema, la satisfacción del cliente mejoró. Las expresiones de frustración disminuyeron, por ejemplo, al igual que ESCRIBIR TODO EN MAYÚSCULAS.

Es especialmente interesante que los agentes menos capacitados, que también eran a menudo los más nuevos, se beneficiaron más. Por ejemplo, las resoluciones por hora de los agentes que estaban entre el 20% más lento antes de la introducción del nuevo sistema aumentaron en un 35%. (La tasa de resolución del 20% más rápido no cambió). El sistema de IA generativa fue una tecnología de mejora rápida de habilidades. Puso a disposición de todos los agentes conocimientos que antes solo se adquirían con experiencia o capacitación. Además, la rotación de agentes disminuyó, especialmente entre aquellos con menos de seis meses de experiencia, tal vez porque las personas tienden a quedarse cuando tienen herramientas poderosas para ayudarles a hacer su trabajo mejor.

Dado el potencial de la IA generativa para mejorar la productividad en muchas otras funciones, de hecho, en cualquier función que involucre tareas cognitivas, llamarla revolucionaria no es exagerado. Los líderes empresariales deberían considerarla como una tecnología de propósito general similar a la electricidad, la máquina de vapor y el internet. Sin embargo, aunque el potencial completo de esas otras tecnologías tardó décadas en realizarse, el impacto de la IA generativa en el rendimiento y la competencia en toda la economía será evidente en solo unos pocos años.

Eso se debe a que las tecnologías de propósito general del pasado requerían una gran cantidad de infraestructura física complementaria (líneas eléctricas, nuevos tipos de motores y electrodomésticos, fábricas rediseñadas, etc.) junto con nuevas habilidades y procesos empresariales. Ese no es el caso con la IA generativa. Gran parte de la infraestructura necesaria ya está en su lugar: la nube, el software como servicio, las interfaces de programación de aplicaciones, las tiendas de aplicaciones y otros avances siguen reduciendo la cantidad de tiempo, esfuerzo, experiencia y gastos necesarios para adquirir y comenzar a utilizar nuevos sistemas de información. Como resultado, cada vez es más fácil para las empresas implementar casi cualquier tecnología digital. Esa es una de las principales razones por las que ChatGPT pasó de cero a 100 millones de usuarios en 60 días. A medida que Microsoft, Google y otros proveedores de tecnología incorporen herramientas de IA generativa en sus suites de oficina, clientes de correo electrónico y otras aplicaciones, miles de millones de usuarios obtendrán acceso rápidamente como parte de su rutina diaria.

La IA generativa también se implementará rápidamente porque las personas interactúan con estos sistemas hablándoles de la misma manera que lo harían con otra persona. Eso reduce las barreras de entrada para algunos tipos de trabajo (imagina escribir software explicándole a un LLM en lenguaje cotidiano lo que quieres lograr). Además, estos sistemas no necesariamente requerirán que las empresas cambien procesos empresariales completos; al principio, se utilizarán solo para tareas discretas, lo que facilitará mucho su adopción. Utilizar la tecnología para reingeniar todos los aspectos de cómo una empresa interactúa con sus clientes, por ejemplo, es una tarea importante; utilizarla para sugerir mejores respuestas de chat a los agentes de servicio al cliente no lo es. Sin embargo, con el tiempo, la IA generativa traerá cambios grandes y profundos en la forma en que las empresas realizan su trabajo más importante.

En consecuencia, los líderes empresariales no deben quedarse al margen y esperar a ver cómo se desarrolla el uso de la IA generativa. No pueden permitirse que los competidores les ganen la delantera.

¿Cómo afectará la IA generativa a los empleos de su empresa?

Las predicciones sobre los tipos y la cantidad de empleos que serán reemplazados por la IA generativa son abundantes. Pero en realidad, es más útil pensar en las tareas cognitivas que la tecnología podría realizar o ayudar a realizar.

Una investigación realizada por uno de nosotros (Daniel), Sam Manning de OpenResearch y Tyna Eloundou y Pamela Mishkin de OpenAI adoptó ese enfoque. Su punto de partida fue la base de datos ONET, que ha sido mantenida y actualizada por el gobierno de Estados Unidos desde 1998. ONET incluye casi 1,000 ocupaciones y desglosa cada una en sus tareas constituyentes, generalmente de 20 a 30. Por ejemplo, según O*NET, los radiólogos tienen 30 tareas distintas, que incluyen «realizar o interpretar los resultados de procedimientos de diagnóstico por imágenes» y «desarrollar planes de tratamiento para pacientes de radiología».

Los investigadores, con la ayuda de personas seleccionadas por OpenAI, abordaron dos preguntas: ¿Qué tareas de cada trabajo de O*NET podrían hacerse al menos dos veces más rápido con la ayuda de la IA generativa sin una disminución significativa en la calidad? Y de esas tareas «expuestas», ¿cuáles necesitaban al menos un sistema adicional además de la IA generativa para obtener ganancias de productividad? El equipo de investigación también hizo las mismas dos preguntas al GPT-4 LLM de OpenAI y comparó sus respuestas con las de las personas. Las respuestas fueron similares.

Llamar a la IA generativa revolucionaria no es exagerado. Los líderes empresariales deberían verla como una tecnología de propósito general similar a la electricidad, la máquina de vapor y el internet.

Este esfuerzo reveló que el 80% de los trabajadores estadounidenses tienen al menos el 10% de sus tareas expuestas a la IA generativa, y el 19% de los trabajadores tienen más de la mitad de sus tareas expuestas. Pero «expuesto» no significa que esas tareas se automatizarán o deban automatizarse. En muchos casos, el mejor uso de la IA generativa será hacer que los trabajadores humanos sean más productivos o creativos, no reemplazarlos. Los programadores son un ejemplo. Ya utilizan en gran medida LLMs como GitHub Copilot para escribir el primer borrador de su código, pero aún tienen que corregir errores; consultar con personal gerencial, de ingeniería y técnico para aclarar la intención del programa; capacitar a subordinados; y realizar muchas otras tareas que no son adecuadas para la IA generativa. A medida que los LLMs mejoren en la escritura de código, los programadores tendrán más tiempo y energía para dedicar a otras tareas. (Para obtener más información sobre cómo la IA generativa puede ayudar pero no reemplazar a los trabajadores, consulte «Cómo la IA generativa puede aumentar la creatividad humana», HBR, julio-agosto de 2023).

Los líderes pueden llevar a cabo una versión de este enfoque de investigación para tener una idea de dónde se puede aplicar la IA generativa de manera más productiva en sus organizaciones. Cada junta directiva debería esperar que su CEO desarrolle un plan de acción viable. Hacerlo es un proceso de tres partes.

Primero, haga un inventario aproximado de los trabajos de conocimiento: ¿Cuántas personas se dedican principalmente a escribir? ¿Cuántos analistas de datos, gerentes, programadores, agentes de servicio al cliente, etc., tiene?

A continuación, haga dos preguntas sobre cada rol. La primera es: «¿Cuánto se beneficiaría un empleado en este rol al tener un asistente competente pero ingenuo, alguien que se destaque en programación, escritura, preparación de datos o resumen de información pero que no sepa nada sobre nuestra empresa?»Los LLMs disponibles públicamente hoy en día son como ese asistente. Pueden escribir código, por ejemplo, pero no saben cuáles son las necesidades de desarrollo de software o integración de sistemas de su empresa. Pueden crear un plan de proyecto o criticar uno existente, pero no saben en qué proyectos están trabajando.

La segunda pregunta es: «¿Cuánto se beneficiaría un empleado en este puesto al tener un asistente experimentado, alguien que haya estado en la empresa el tiempo suficiente para absorber su conocimiento especializado?» La empresa de software descrita al inicio de este artículo no necesitaba agentes de servicio al cliente ingenuos; necesitaba agentes que supieran qué tipos de problemas ocurrían con sus productos y pudieran trabajar eficazmente con los clientes para resolverlos. Por eso combinó un LLM orientado al cliente con aprendizaje en contexto. Como indica este ejemplo, cuando una empresa necesita acceder a su conocimiento interno específico, generalmente debe combinar la IA generativa «listo para usar» con otro sistema.

Finalmente, una vez que se hayan inventariado los roles de trabajo de conocimiento de su empresa y se hayan respondido esas dos preguntas, priorice los esfuerzos de IA generativa más prometedores. Esta tarea es sencilla: elija aquellos con la mayor relación beneficio-costo. Para estimar los beneficios, observe la cantidad total que la empresa gasta en compensación para cada puesto. El propósito no es identificar posiciones para eliminar, sino identificar oportunidades para grandes mejoras de productividad, donde los nuevos asistentes digitales serán más valiosos. Al igual que con otros esfuerzos de transformación digital, el costo de un proyecto de IA generativa es una combinación de dinero, tiempo y oportunidades perdidas, es decir, los proyectos que no está persiguiendo porque la IA generativa tiene una prioridad más alta. Los esfuerzos de LLM «listos para usar» son relativamente baratos y rápidos, mientras que los proyectos que requieren integrar la IA generativa con otro sistema llevan más tiempo y son más costosos (aunque no en comparación con muchos otros esfuerzos de TI).

En la actualidad, la mayoría de los proyectos de IA generativa se centran en mejorar tareas específicas. Esto es apropiado, porque existen muchas oportunidades para utilizar la tecnología de esa manera. Pero a medida que madura y las empresas adquieren experiencia con ella, los esfuerzos de IA generativa abarcarán procesos comerciales completos en lugar de tareas individuales. Por ejemplo, se utilizarán para transformar todos los aspectos de la interacción de una empresa con los clientes, no solo para mejorar los chats de solución de problemas en línea. La IA generativa sigue siendo una tecnología incipiente y no podemos predecir exactamente cómo se utilizará en los próximos años. Pero podemos predecir con confianza que desempeñará un papel importante en las estrategias digitales de las empresas exitosas.

Solucionando el problema de «confabulación»

Dado el gran impacto que la IA generativa promete tener en una amplia variedad de negocios en un futuro cercano, la respuesta a una de sus mayores deficiencias, que es que puede fabricar información, no debería ser evitar la tecnología. Más bien, debería ser protegerse contra ese peligro. Aquí hay algunas formas de hacerlo.

Construye LLMs multinivel o combina uno con otro sistema. Las empresas que construyen LLMs son conscientes de que estos sistemas confabulan y están trabajando en formas de minimizar el problema. Una técnica consiste en reconocer cuando la solicitud del usuario no es adecuada para el enfoque estándar de un LLM, que es formular una respuesta en base a las asociaciones entre todas las palabras y oraciones en las que ha sido entrenado. Para estas solicitudes, el sistema adopta un enfoque diferente. Por ejemplo, en respuesta a una consulta que tiene una única respuesta correcta, el Bard de Google ahora escribe realmente un algoritmo para producir esa respuesta, que informa al usuario (junto con el código). Por ejemplo, cuando se le pide que invierta la palabra «Lollipop», escribió algunas líneas de código para lograr la tarea y devolvió «popilloL». Y como se mencionó, el proyecto para mejorar el servicio al cliente utilizó un LLM para monitorear chats en línea y comprender las preguntas de los clientes, pero el sistema de aprendizaje en contexto moldeó sus respuestas.

Suplementa el LLM con un humano. Los usuarios deben tomar los resultados de un LLM con precaución. Por ejemplo, los especialistas en marketing que utilizan un LLM para generar contenido para un sitio web o una campaña en redes sociales pueden evaluar rápidamente si es adecuado. Los ingenieros de software pueden verificar si el código producido por la IA generativa se ejecuta y cumple la tarea deseada. Incluso si no lo hace, según los ingenieros, el enfoque utilizado puede ayudarles a abordar la tarea en cuestión. Y los médicos que utilizan LLMs para transcribir y resumir visitas con pacientes que han dado su consentimiento informan reducciones significativas en el tiempo requerido para documentar esas visitas. Un médico le dijo a Steve Lohr del New York Times que un LLM había reducido el tiempo que dedicaba a esta tarea de hasta dos horas a unos 20 minutos. Los médicos aún deben revisar los resúmenes generados por la IA, pero ya no tienen que interactuar simultáneamente con sus pacientes y tratar de tomar notas sobre la interacción. Como resultado, otro médico le dijo a Lohr: «La IA me ha permitido, como médico, estar 100% presente para mis pacientes». De manera similar, en el ejemplo de servicio al cliente, el juicio de los agentes evaluó la razonabilidad de las respuestas de la IA.

No uses un LLM. Algunas tareas son demasiado arriesgadas para que la IA generativa participe en ellas. Por ejemplo, un sistema que receta exactamente los medicamentos correctos el 90% del tiempo pero confabula en uno de cada diez casos es inaceptablemente inseguro para ser utilizado por sí solo. Además, no ahorraría tiempo a los médicos, ya que tendrían que verificar cuidadosamente todas sus recomendaciones antes de transmitirlas a los pacientes. Incluso para tareas en las que la seguridad no es un problema, la tendencia de los LLMs a confabular puede descartarlos. Cuando uno de nosotros (Andy) estaba preparando las notas finales para su libro más reciente, se emocionó al descubrir que ChatGPT podía tomar una lista de libros, artículos y sitios web y generar un conjunto de referencias correctamente formateadas para ellos. Pero al verificar su resultado, se decepcionó al descubrir que algunas de las referencias estaban equivocadas. Cuando le dio la URL de un artículo, a veces generaba una referencia con un título plausible pero inventado, daba una fecha de publicación incorrecta o atribuía el artículo al autor equivocado. Encontró más rápido crear todas las referencias manualmente que verificar cada aspecto de las generadas por el LLM.

Para mitigar la invasión de la privacidad, los problemas de propiedad intelectual y el sesgo, es importante tener en cuenta las políticas de privacidad de cualquier IA generativa que estés utilizando. Aunque los LLM y la privacidad estricta no son incompatibles. Por ejemplo, la Clínica Mayo ha anunciado un esfuerzo para implementar un LLM interno que ayudará a sus proveedores de atención médica a buscar información en fuentes como páginas web, documentos internos y registros de pacientes. Si un médico solicita «Muéstrame los resultados de las pruebas de hoy para todos mis pacientes», el LLM generará consultas al sistema de registros electrónicos de salud y presentará los resultados. Para que el sistema cumpla con los requisitos de la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) en cuanto a la privacidad y confidencialidad de la información del paciente, Mayo designará qué empleados están autorizados a acceder a la información de salud protegida.

La respuesta a una de las principales deficiencias de la IA generativa, que es la capacidad de fabricar información, no debería ser evitar la tecnología, sino protegerse contra ese peligro.

Además de las confabulaciones y las preocupaciones de privacidad, existe el riesgo de violación de los derechos de propiedad intelectual (PI) en algunos LLM. ChatGPT ha sido entrenado con enormes cantidades de texto, algunos de los cuales aún están protegidos por derechos de autor u otros derechos de PI. Lo mismo ocurre con los nuevos sistemas de IA generadores de imágenes como Stable Diffusion y Midjourney, ambos de los cuales han sido demandados por infracción de derechos de autor. Las empresas pueden estar expuestas a responsabilidad legal si las imágenes producidas por IA generativa que utilizan se consideran una violación de las leyes de PI (ver «Generative AI Has an Intellectual Property Problem», hbr.org, 7 de abril de 2023). Como resultado, muchas organizaciones están esperando a ver cómo se resuelven los casos judiciales antes de adentrarse en la IA generativa. Sin embargo, para fomentar la adopción inmediata, algunos creadores de estos sistemas están protegiendo a los clientes contra el riesgo de PI. Adobe, por ejemplo, ha anunciado que indemnizará a los usuarios de Firefly, su IA generadora de imágenes (que no fue entrenada con imágenes con derechos de autor), contra reclamaciones legales.

Una preocupación final con la IA generativa, al igual que con la mayoría de los otros tipos de inteligencia artificial, es el sesgo. «Basura entra, basura sale» es uno de los dichos más antiguos de la era de la computadora, y es más cierto que nunca. Si un sistema de aprendizaje automático se entrena con datos sesgados, los resultados que genera reflejarán ese sesgo. Por ejemplo, si una empresa ha contratado solo graduados universitarios como programadores y utiliza su historial de empleo para entrenar un sistema que ayuda a tomar decisiones de contratación, es probable que ese sistema rechace a programadores altamente calificados que no fueron a la universidad o no la terminaron. Así que debes estar atento cuando utilices la IA generativa. Pregúntate a ti mismo: «¿Esperamos que este sistema proporcione resultados menos sesgados que los datos en los que se ha entrenado?» Si la respuesta es sí, reconsidera el proyecto.

Prepárate para experimentar

En las últimas décadas, las organizaciones líderes han utilizado el método ágil para desarrollar y adoptar con éxito nuevos sistemas de información (ver «Abrazar lo ágil», HBR, mayo de 2016). Gestionan sus esfuerzos con pruebas repetidas en lugar de una planificación extensa. Dividen los proyectos en ciclos cortos que pueden completarse en una o dos semanas, a veces incluso menos. Los miembros del equipo de proyecto hacen un seguimiento del progreso y reflexionan sobre lo que han aprendido antes de comenzar el siguiente ciclo. A menudo, de hecho, todo el ciclo es un experimento: el objetivo no es tanto construir algo como probar una hipótesis y obtener comprensión.
La IA generativa se adapta perfectamente a este enfoque iterativo. Sus fortalezas y debilidades son diferentes a las de cualquier otro sistema anterior. Debes descubrir cómo formular tus indicaciones para obtener las respuestas más útiles. También debes decirle al sistema con frecuencia que lo intente de nuevo y darle notas sobre cómo mejorar. Pedirle que asuma una personalidad o dirigirlo para que cambie su tono o estilo a menudo es efectivo. Interactuar con un LLM de esta manera se llama «ingeniería de indicaciones», una disciplina joven que todavía es más arte que ciencia. Lo mismo ocurre al descubrir cómo evitar las confabulaciones. La mejor manera de comenzar a aprender estas habilidades es encontrar un proyecto con una relación atractiva entre beneficios y costos y riesgos bajos, y comenzar a probar cosas. Se debe utilizar el mismo enfoque con esfuerzos más ambiciosos para trabajar con IA generativa, como combinar un LLM con otras tecnologías. La iteración rápida es la mejor manera de aprender y progresar. Cuanto más rápido pueda una organización avanzar a través de bucles OODA repetidos de observar la situación, orientarse para la acción, decidir qué hacer y luego actuar, más aprenderá y más rápido aparecerán los aumentos de productividad y otros beneficios.

Fuente: Cómo capitalizar la IA generativa

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *