Empresas Premium
Veeva Systems ha anunciado hoy Veeva AI, una nueva y ambiciosa iniciativa que incorpora inteligencia artificial (IA) a la plataforma Veeva Vault y a sus aplicaciones especializadas, con el objetivo de ayudar a las compañías del sector de las ciencias de la salud a automatizar tareas y aumentar la productividad de sus equipos mediante AI Agents y AI Shortcuts.
Con esta innovación, Veeva ofrece una forma ágil y eficiente de integrar los AI Agents basados en grandes modelos de lenguaje (LLMs), dentro de las aplicaciones ya existentes, al tiempo que proporciona AI Shortcuts a los usuarios finales. Veeva AI estará disponible en todas las aplicaciones de Veeva, abarcando las áreas clave del sector: clinical, regulatory, safety, quality, medical y comercial.
Los Veeva AI Agents pueden implementarse rápidamente y generar un alto impacto, ya que comprenden el contexto de las aplicaciones de Veeva, incorporan instrucciones y medidas de seguridad específicas para cada aplicación, y cuentan con acceso directo y seguro a los datos, documentos y flujos de trabajo dentro del entorno de Veeva. Los clientes pueden configurar y ampliar el uso de los Veeva AI Agents, personalizándolos para abordar casos de uso específicos de su organización. Estos agentes pueden utilizarse a través de una interfaz de usuario tipo chatbot o mediante la API de IA.
Veeva AI Shortcuts permite a los usuarios finales configurar fácilmente automatizaciones personales impulsadas por IA para ejecutar tareas frecuentes adaptadas a sus necesidades. Estas pueden incluir asistencia en flujos de trabajo, generación de ideas o la provisión de información sobre temas concretos.
Veeva AI es independiente del LLM y compatible con la mayoría de los principales grandes modelos de lenguaje. Los clientes pueden utilizar un LLM proporcionado por Veeva o configurar Veeva AI para funcionar con un modelo específico de su propiedad. Independientemente del tipo de implementación o del LLM utilizado, Veeva AI garantiza la seguridad de los datos de cada cliente.
|