Únase a los principales ejecutivos en San Francisco el 11 y 12 de julio para escuchar cómo los líderes están integrando y optimizando las inversiones en IA para el éxito. Aprende más


Han sido unos meses emocionantes desde que OpenAI lanzó ChatGPT, que ahora tiene a todos hablando de él, muchos hablando con él y todos los ojos puestos en lo que sigue.

No es sorprendente. ChatGPT elevó el listón de lo que son capaces las computadoras y es una ventana a lo que es posible con la IA. Y con los gigantes tecnológicos Microsoft, Google y ahora Meta uniéndose a la carrera, todos deberíamos abrocharnos el cinturón para un viaje emocionante pero potencialmente lleno de baches.

El núcleo de estas capacidades son grandes modelos de lenguaje (LLM): específicamente, un LLM generativo particular que hace posible ChatGPT. Los LLM no son nuevos, pero la tasa de innovación, las capacidades y el alcance evolucionan y se aceleran a una velocidad alucinante.

Un vistazo detrás de la cortina de la IA

También están sucediendo muchas cosas “detrás de la cortina” que han generado confusión, y algunos han caracterizado erróneamente a ChatGPT como un asesino de Google, o que la IA generativa reemplazará la búsqueda. Todo lo contrario.

Evento

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos compartirán cómo han integrado y optimizado las inversiones en IA para lograr el éxito y evitar errores comunes.

Regístrate ahora

En primer lugar, es importante distinguir entre búsqueda y IA generativa. El propósito de la búsqueda es la recuperación de información: sacar a la superficie algo que ya existe. La IA generativa y las aplicaciones como ChatGPT son generativas y crean algo nuevo basado en lo que se ha capacitado el LLM.

ChatGPT se parece un poco a una búsqueda porque interactúas con él a través de preguntas conversacionales en lenguaje natural y responde con una prosa bien escrita y una respuesta muy segura. Pero a diferencia de la búsqueda, ChatGPT no recupera información o contenido; en cambio, crea un reflejo imperfecto del material que ya conoce (en lo que ha sido entrenado). Realmente no es más que una mezcolanza de palabras creadas en base a probabilidades.

Si bien los LLM no reemplazarán la búsqueda, pueden complementar una experiencia de búsqueda. El poder real de aplicar LLM generativos a la búsqueda es la conveniencia: resumir los resultados en un formato conciso y fácil de leer. La combinación de LLM generativos con búsqueda abrirá la puerta a nuevas posibilidades.

Busque un campo de pruebas para IA y LLM

modelos generativos Los LLM basados ​​en LLM llegaron para quedarse y revolucionarán la forma en que hacemos muchas cosas. La fruta madura de hoy es la síntesis: compilar listas y escribir resúmenes de temas comunes. La mayoría de esas capacidades no se clasifican como búsqueda. Pero la experiencia de búsqueda se transformará y dividirá con LLM especializados que atienden necesidades específicas.

Entonces, en medio de la emoción de la IA generativa, los LLM y ChatGPT, hay un punto que prevalece: la búsqueda será un campo de pruebas para la IA y los LLM. Esto es especialmente cierto con la búsqueda empresarial. A diferencia de las aplicaciones B2C, las aplicaciones B2B y en el negocio tendrán una tolerancia mucho menor a la inexactitud y una necesidad mucho mayor de protección de la información propietaria. La adopción de la IA generativa en la búsqueda empresarial se retrasará con respecto a la búsqueda en Internet y requerirá enfoques creativos para enfrentar los desafíos especiales de los negocios.

Con ese fin, ¿qué depara 2023 para la búsqueda empresarial? Aquí hay cinco temas que dan forma al futuro de la búsqueda empresarial en el próximo año.

Los LLM mejoran la experiencia de búsqueda

Hasta hace poco, aplicar LLM a la búsqueda era un asunto costoso y engorroso. Eso cambió el año pasado cuando empezaron a incorporarse las primeras empresas LLM en la búsqueda empresarial. Esto produjo el primer gran avance en la tecnología de búsqueda en décadas, lo que resultó en una búsqueda más rápida, más enfocada y más indulgente. Sin embargo, solo estamos al principio.

A medida que haya mejores LLM disponibles y que los LLM existentes se ajusten para realizar tareas específicas, este año podemos esperar una rápida mejora en el poder y la capacidad de estos modelos. Ya no se tratará de encontrar un documento; podremos encontrar una respuesta específica dentro de un documento. Ya no se nos pedirá que usemos solo la palabra correcta, sino que la información se recuperará en función del significado.

Los LLM harán un mejor trabajo al mostrar el contenido más relevante, brindándonos resultados más enfocados, y lo harán en lenguaje natural. Y los LLM generativos son prometedores para sintetizar los resultados de búsqueda en resúmenes fáciles de digerir y comprender.

La búsqueda ayuda a combatir la pérdida de conocimiento

La pérdida de conocimiento organizacional es uno de los problemas más serios que enfrentan las empresas hoy en día. La alta rotación de empleados, ya sea por deserción voluntaria, despidos, reestructuración de fusiones y adquisiciones o reducción de personal, a menudo deja el conocimiento varado en islas de información. Esto, combinado con el cambio al trabajo remoto e híbrido, los cambios dramáticos en las percepciones de los clientes y empleados y una explosión de datos no estructurados y contenido digital, ha ejercido una enorme presión sobre la gestión del conocimiento.

en un encuesta reciente de 1000 gerentes de TI en grandes empresas, el 67 % dijo que estaba preocupado por la pérdida de conocimientos y experiencia cuando las personas abandonan la empresa. Y ese costo de la pérdida de conocimiento y el intercambio ineficiente de conocimiento es elevado. IDC estima que las empresas de Fortune 500 pierden aproximadamente $ 31.5 mil millones al año por no compartir conocimientos, una cifra alarmante, particularmente en la economía incierta de hoy. Mejorar las herramientas de búsqueda y recuperación de información para una empresa Fortune 500 con 4000 empleados ahorraría aproximadamente $2 millones mensuales en pérdida de productividad.

La búsqueda empresarial inteligente evita las islas de información y permite que las organizaciones encuentren, muestren y compartan fácilmente la información y el conocimiento corporativo de sus mejores empleados. Encontrar conocimiento y experiencia dentro del lugar de trabajo digital debe ser fluido y sin esfuerzo. La plataforma de búsqueda empresarial adecuada ayuda a conectar a los trabajadores con el conocimiento y la experiencia, e incluso conecta silos de información dispares para facilitar el descubrimiento, la innovación y la productividad.

La búsqueda resuelve la fragmentación de aplicaciones y la fricción digital

Los empleados de hoy se están ahogando en herramientas. Según un estudio reciente de Forrester, las organizaciones utilizan un promedio 367 diferentes herramientas de software, creando silos de datos e interrumpiendo procesos entre equipos. Como resultado, los empleados gastan 25% de su tiempo buscando información en lugar de concentrarse en sus trabajos.

Esto no solo tiene un impacto directo en la productividad de los empleados, sino que también tiene implicaciones para los ingresos y los resultados de los clientes. Esta “división de aplicaciones” exacerba los silos de información y crea fricción digital a través del cambio constante de aplicaciones, moviéndose de una herramienta a otra para realizar el trabajo.

Según una encuesta reciente de Gartner, 44% de los usuarios tomó una decisión equivocada porque desconocía la información que podría haber ayudado, y el 43% de los usuarios informó que no notó información importante porque se perdió en medio de demasiadas aplicaciones.

La búsqueda empresarial inteligente unifica las experiencias de los empleados para que puedan acceder a todo el conocimiento corporativo sin problemas y con precisión desde una única interfaz. Esto reduce en gran medida el cambio de aplicación, así como la frustración de una fuerza laboral ya fatigada, al tiempo que optimiza la productividad y la colaboración.

La búsqueda se vuelve más relevante

¿Con qué frecuencia encuentra lo que busca cuando busca algo en su organización? Completamente una-ésimaird de los empleados informan que “nunca encuentran” la información que buscan, siempre o la mayor parte del tiempo. ¿Qué están haciendo, entonces? ¿Adivinación? ¿Inventándolo? ¿Cargando hacia adelante en la ignorancia?

La relevancia de búsqueda es el ingrediente secreto que permite a los científicos, ingenieros, responsables de la toma de decisiones, trabajadores del conocimiento y otros descubrir el conocimiento, la experiencia y los conocimientos necesarios para tomar decisiones informadas y hacer más, más rápido. Mide qué tan cerca se relacionan los resultados de una búsqueda con la consulta del usuario.

Los resultados que coinciden mejor con lo que el usuario espera encontrar son más relevantes y deberían aparecer más arriba en la página de resultados. Pero muchas plataformas de búsqueda empresarial hoy en día carecen de la capacidad de comprender la intención del usuario y ofrecer resultados de búsqueda relevantes. ¿Por qué? Porque desarrollarlo y ajustarlo es difícil. Entonces, vivimos con las consecuencias.

Las herramientas de búsqueda empresarial inteligente funcionan mucho mejor, con resultados que son mucho más relevantes que la búsqueda en la aplicación. Pero incluso ellos pueden tener dificultades para manejar escenarios difíciles, y es posible que los resultados deseados no estén en la parte superior de la lista. Pero el advenimiento de los LLM ha abierto la puerta a la búsqueda de vectores, recuperando información basada en el significado.

Los avances en las capacidades de búsqueda neuronal incorporan tecnología LLM en redes neuronales profundas: modelos que incorporan contexto para proporcionar una excelente relevancia a través de la búsqueda semántica. Mejor aún, la combinación de enfoques de búsqueda semántica y vectorial con capacidades de búsqueda estadística de palabras clave brinda relevancia en una amplia gama de escenarios empresariales. La búsqueda neuronal trae el primer paso de relevancia en décadas para que las computadoras puedan aprender a trabajar con humanos y no al revés.

Los métodos de preguntas y respuestas obtienen un impulso neuronal

¿Alguna vez ha deseado que su empresa tuviera una búsqueda que funcionara como Google? ¿Dónde podría obtener una respuesta de inmediato, en lugar de primero ubicar el documento correcto, luego encontrar la sección correcta y luego escanear párrafos para encontrar la información que necesitaba? Para preguntas simples, ¿no sería bueno obtener una respuesta directa?

Con LLM y la capacidad de trabajar semánticamente (basado en el significado), la capacidad de respuesta a preguntas (QA) está disponible en la empresa. La búsqueda neuronal está dando un impulso al control de calidad: los usuarios pueden extraer respuestas a preguntas sencillas cuando esas respuestas están presentes en el corpus de búsqueda. Esto acorta el tiempo de comprensión, lo que permite que un empleado obtenga una respuesta rápida y continúe con su flujo de trabajo sin desviarse en una larga búsqueda de información.

De esta manera, las capacidades de respuesta a preguntas ampliarán la utilidad y el valor de la búsqueda empresarial inteligente, lo que facilitará más que nunca que los empleados encuentren lo que necesitan. El control de calidad aplicado a la empresa aún está en pañales, pero la tecnología se está moviendo rápidamente; veremos una mayor adopción de varias tecnologías de IA que podrán responder preguntas, encontrar documentos similares y hacer otras cosas que acortan el tiempo de conocimiento y facilitan más que nunca que los empleados se concentren en su trabajo.

Mirando hacia el futuro

La innovación se basa en el conocimiento y sus conexiones. Estos provienen de la capacidad de interactuar con el contenido y entre sí, obtener significado de esas interacciones y crear un nuevo valor. La búsqueda empresarial facilita estas conexiones a través de silos de información y, por lo tanto, es un habilitador clave de la innovación.

Gracias a los avances en IA, como las redes neuronales y los LLM, la búsqueda empresarial está entrando en un nuevo reino de precisión y capacidad.

Jeff Evernham es vicepresidente de estrategia de productos en el proveedor de búsqueda empresarial Sinequa.

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir información e innovación relacionadas con los datos.

Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

Incluso podrías considerar contribuyendo con un artículo ¡tuyo!

Leer más de DataDecisionMakers

news
bbc news
fox news
ukraine news
sky news
news today
abc news
google news
cnn news
yahoo news
msn news
news articles
news and observer
news and advance
news anchor
news articles today
news and record
news anchor salary
news austin
news anchors affair
news atlanta
arsenal transfer news
arsenal news
ary news live
a newspaper
a newsletter alison roman
a news article
a newspaper article
about chelsea news
news break

By mrtrv