Trust Center
AI bij Nitro
Verantwoord gebouwd met uw privacy en veiligheid op de voorgrond. Lees meer over Nitro's benadering van AI en hoe wij uw gegevens beschermen.

Doel en gegevensverwerking

Bij Nitro zijn onze AI-tools ontworpen om documentverwerking efficiënt en veilig te verbeteren. We maken geen eigen generatieve AI-modellen en delen uw gegevens niet met derden om hun modellen te trainen. In plaats daarvan gebruiken we gevestigde AI-modellen, die ervoor zorgen dat uw gegevens worden beschermd en alleen worden gebruikt voor de taken die u aanvraagt.

Nitro's Document Assistant, onze belangrijkste AI-tool, wordt aangestuurd door ChatGPT en gehost op Microsoft Azure OpenAI. Dit zorgt ervoor dat uw gegevens binnen een beveiligde omgeving blijven, die door Nitro wordt gecontroleerd. Microsoft Azure OpenAI volgt verantwoordelijke AI-principes om gegevens te beschermen en hoge beveiligingsnormen te handhaven. U kunt hier meer te weten komen over de AI-principes van Microsoft.

Gedragscode

Nitro houdt zich aan de richtlijnen voor verantwoorde AI van Azure, inclusief:

  • Menselijk toezicht: ervoor zorgen dat de ontwikkeling door mensen wordt beoordeeld.
  • Preventiemaatregelen: Beveiligingen implementeren tegen misbruik van AI in Nitro of gebruik voor fraude.
  • Grondig testen: Rigoureus testen van applicaties om mogelijke problemen te identificeren en op te lossen.
  • Feedbackkanalen: Gebruikers in staat stellen feedback te geven over AI-tools.
  • Gedefinieerd bereik: AI-tools alleen gebruiken voor de beoogde doeleinden.

We hebben robuuste procedures om eventuele problemen met betrekking tot onze AI-tools aan te pakken. Elke tool of elk systeem ondergaat een gedetailleerde interne beoordeling en beoordeling voordat het wordt geïntegreerd in ons standaard Software Development Life Cycle (SDLC)-proces. Dit zorgt ervoor dat alle AI-tools voldoen aan onze kwaliteits- en beveiligingsnormen. Daarnaast houden we de feedback van gebruikers actief in de gaten om eventuele problemen snel te identificeren en op te lossen. Deze voortdurende feedbacklus helpt ons om onze AI-tools voortdurend te verbeteren en hoge normen voor prestaties en betrouwbaarheid te handhaven.

Privacy en beveiliging van gegevens

Nitro's Document Assistant gebruikt geavanceerde AI-modellen, waaronder ChatGPT's Large Language Models (LLM's) en Retrieval Augmented Generation (RAG)-techniek, om de antwoorden te geven die relevant zijn voor de gebruiker. We gebruiken ook prompt engineering om de nauwkeurigheid van de resultaten te verbeteren.

De privacy van uw gegevens is onze prioriteit:

  • Uw gegevens worden niet gedeeld: Uw vragen en antwoorden zijn alleen voor u toegankelijk en niet zichtbaar voor andere klanten of medewerkers van Nitro.
  • Uw gegevens worden niet gebruikt voor training: Uw gegevens worden niet gebruikt om Azure OpenAI of andere modellen te trainen.
  • Uw gegevens zijn veilig: We gebruiken versleuteling om uw gegevens te beschermen tijdens verzending en opslag, en de toegang wordt veilig beheerd.

Terwijl Document Assistant zich in de bètamodus bevindt, wordt deze ingeschakeld voor klanten die online hebben gekocht; in grotere organisaties moeten beheerders ervoor kiezen om AI-tools voor hun gebruikers in te schakelen. Alle persoonlijke gegevens in uw documenten worden slechts tijdelijk gebruikt en verwijderd zodra de taak is voltooid.

Ga voor meer informatie over onze beveiligings- en privacyprocedures naar Nitro's Vertrouwenscentrum.