Finalidad y tratamiento de datos
En Nitro, nuestras herramientas de IA están diseñadas para mejorar el procesamiento de documentos de manera eficiente y segura. No creamos nuestros propios modelos de IA generativa ni compartimos sus datos con terceros para entrenar sus modelos. En su lugar, utilizamos modelos de IA establecidos, lo que garantiza que sus datos estén protegidos y se utilicen solo para las tareas que solicite.
Nitro's documento Assistant, nuestra principal herramienta de IA, funciona con ChatGPT y está alojada en Microsoft Azure OpenAI. Esto garantiza que sus datos permanezcan dentro de un entorno seguro, que Nitro controla. Microsoft Azure OpenAI sigue los principios de la IA responsable para salvaguardar los datos y mantener altos estándares de seguridad. Puede obtener más información sobre los principios de IA de Microsoft aquí.
Código de Conducta
Nitro se adhiere a las directrices de IA responsable de Azure, entre las que se incluyen:
- Supervisión humana: Garantizar que el desarrollo sea revisado por los seres humanos.
- Medidas de prevención: Implementación de salvaguardas contra el uso indebido de la IA en Nitro o el uso para el fraude.
- Pruebas exhaustivas: pruebas rigurosas de las aplicaciones para identificar y solucionar posibles problemas.
- Canal de retroalimentación: Permite a los usuarios proporcionar comentarios sobre la herramienta de IA.
- Alcance definido: Usar la herramienta de IA solo para los fines previstos.
Contamos con procedimientos sólidos para abordar cualquier inquietud relacionada con nuestra herramienta de IA. Cada herramienta o sistema se somete a una revisión y evaluación interna detallada antes de integrarse en nuestro proceso estándar de ciclo de vida de desarrollo de software (SDLC). Esto garantiza que todas las herramientas de IA cumplan con nuestros estándares de calidad y seguridad. Además, monitoreamos activamente los comentarios de los usuarios para identificar y resolver cualquier problema con prontitud. Este ciclo de retroalimentación continua nos ayuda a mejorar continuamente nuestra herramienta de IA y a mantener altos estándares de rendimiento y fiabilidad.
Privacidad y seguridad de los datos
NitroAssistant utiliza modelos avanzados de IA, incluidos los Grandes Modelos de Lenguaje (LLM) y la técnica de Generación Aumentada de Recuperación (RAG) de ChatGPT, para proporcionar las respuestas relevantes para el usuario. También utilizamos ingeniería rápida para mejorar la precisión de los resultados.
La privacidad de sus datos es nuestra prioridad:
- Sus datos no se comparten: Solo usted puede acceder a sus preguntas y respuestas y no son visibles para otros clientes ni empleados de Nitro.
- Los datos no se usan para el entrenamiento: los datos no se usan para entrenar Azure OpenAI ni para otros modelos.
- Sus datos están seguros: Utilizamos el cifrado para proteger sus datos durante la transmisión y el almacenamiento, y el acceso se gestiona de forma segura.
Mientras el Asistente de documento esté en modo Beta, se habilitará para los clientes que compraron en línea; en organizaciones más grandes, los administradores deben optar por habilitar la herramienta de IA para sus usuarios. Todos los datos personales de su documento se utilizan solo temporalmente y se eliminan una vez que se completa la tarea.
Para obtener más información sobre nuestras prácticas de seguridad y privacidad, visite el Centro de confianza de Nitro.