Na gramática, estamos empenhado A construção de IA que apóia comunicação eficaz e atenciosa – sem comprometer a segurança, a privacidade ou a confiança do usuário. Esse compromisso sempre orientou como projetamos, desenvolvemos e implantamos nossa assistência de escrita a IA. Agora, é apoiado por um padrão reconhecido internacionalmente: Grammarly é oficialmente ISO/IEC 42001: 2023 certificado.
À medida que a IA se torna cada vez mais central para a maneira como trabalhamos, escrevemos e conectamos, a necessidade de diretrizes claras em torno de seu desenvolvimento e uso ético nunca foi maior. Digitar ISO 42001– O primeiro padrão internacional do mundo se concentrou especificamente no gerenciamento de sistemas de IA com responsabilidade.
O que ISO/IEC 42001: 2023 é – e por que importa
A ISO 42001 ajuda as organizações a estabelecer uma estrutura para governar a IA de uma maneira segura, transparente e alinhada com os valores humanos. Esta certificação valida o que a Grammarly priorizou desde o início: a criação de IA que aprimora a comunicação enquanto avalia proativamente os riscos e protege os dados do usuário. A conformidade da ISO 42001 mostra que a IA da Grammarly é:
- Projetado eticamente alinhar -se com os valores humanos
- Alinhado com práticas recomendadas e um olho em regulamentos emergentes
- Seguro e consciente da privacidade Para proteger dados sensíveis
- Monitorado continuamente para riscos e consequências não intencionais
- Confiável e confiável Para aplicativos corporativos e de usuário
A certificação da Grammarly significa que nossa abordagem à IA foi verificada de forma independente contra essa estrutura robusta – tornando -nos uma das primeiras empresas globalmente para alcançar esse marco.
Como a gramática se alinha com a ISO 42001
Incorporamos os princípios responsáveis de IA em todas as partes do ciclo de vida do desenvolvimento de produtos. Veja como nossa abordagem mapeia as principais áreas de controle da ISO 42001:
Políticas que priorizam a responsabilidade
A Grammarly mantém um conjunto formal de políticas de IA que orientam o desenvolvimento, a implantação e a supervisão de nossos sistemas de IA. Essas políticas são revisadas anualmente e refletem nosso compromisso com a segurança, a privacidade e a inovação centrada no usuário. Nós estabelecemos um Sistema de gerenciamento de inteligência synthetic (AIMS) e conduza auditorias independentes para garantir a responsabilidade.
Uma equipe de IA responsável dedicada
Construímos uma equipe multifuncional que supervisiona a governança da IA e garante o alinhamento com os princípios éticos. Funções e responsabilidades são claramente definidas em nossa estrutura organizacional. Todos os funcionários recebem treinamento contínuo em práticas de ética, privacidade e segurança de IA.
Recursos de IA cuidadosamente gerenciados
Nossos conjuntos de dados e ferramentas de terceiros são cuidadosamente revisados e protegidos. Mantemos controles rígidos de acesso e proibimos os parceiros de usar qualquer conteúdo do cliente para treinar seus modelos. Nossa IA generativa é alimentada por parceiros confiáveis como o Microsoft Azure Openai e o Openai, mas os dados do cliente nunca são compartilhados para treinamento de modelos.
Risco proativo e avaliações de impacto
Realizamos avaliações de risco específicas de IA completas, incluindo equipes vermelhas e testes adversários, para avaliar a justiça, a segurança e o viés. Os usuários têm o poder de relatar preocupações e monitoramos continuamente as saídas de IA por meio de avaliação automatizada e humana.
Uma abordagem completa do ciclo de vida para ai
Nossos sistemas de IA são governados em todas as etapas – de design e desenvolvimento à implantação e descomissionamento. Antes de lançar um novo recurso, realizamos testes extensos para garantir que ele atenda a altos padrões de qualidade, inclusão e usabilidade.
Uso de dados seguro, justo e transparente
A gramática aplica forte governança sobre os dados usados para construir nossa IA, enfatizando a qualidade, a justiça e a privacidade. Os usuários podem controlar como seu conteúdo é usado e nunca vendemos o conteúdo do usuário.
Informações claras e acessíveis para as partes interessadas
A transparência é um princípio central na Grammarly. Fornecemos explicações para sugestões geradas pela IA e mantemos documentação clara em torno de nossas práticas de privacidade e segurança em nosso Centro de Belief. As equipes dedicadas de suporte ao cliente e sucesso estão disponíveis para responder a perguntas relacionadas à IA.
Uso de IA centrado em humanos
A IA da Grammarly foi projetada para apoiar – não substituir – criatividade e julgamento humanos. Os usuários sempre permanecem no controle de como se envolvem com sugestões de IA, e nossos sistemas são construídos com transparência e agência de usuários na vanguarda.
Parcerias de terceiros responsáveis
Seguimos nossos fornecedores e subprocessadores com os mesmos altos padrões que definimos para nós mesmos. Todos os parceiros passam por análises anuais de segurança e conformidade, e somos transparentes sobre onde os modelos de IA de terceiros são usados. A Grammarly possui certificações de grau corporativo, incluindo SOC 2 (tipo 2), ISO 27001 e ISO 27701, e é compatível com HIPAA, CCPA, GDPR e muito mais.
Construindo ai em que você pode confiar
Conseguir a certificação ISO/IEC 42001: 2023 é superior a um marco – é um reflexo de quão profundamente nos preocupamos em construir a IA com responsabilidade. Nossa equipe de IA responsável garante que a segurança, a justiça e a transparência sejam incorporadas a todos os modelos que criamos e todas as experiências do usuário que oferecemos.
Estamos comprometidos em ajudar indivíduos e empresas a usar com confiança a IA para se comunicar com mais eficiência – sem comprometer a confiança.
Saiba mais sobre nossa abordagem em Grammarly.com/responsible-Aie confira nosso papel branco Para explorar nossas práticas de IA responsáveis em profundidade.