Confiança
Dois anos de processos, ação regulatória e mudanças de plataforma redefiniram o que 'companheiro de IA seguro' precisa significar. Este é o guia prático para usuários adultos.
A morte de Sewell Setzer III em fevereiro de 2024 mudou a categoria de companheiros de IA. Garcia v. Character Technologies veio em outubro de 2024, com múltiplos processos estaduais ao longo de 2025. O testemunho do Senado em setembro de 2025 citou explicitamente a "prática não autorizada de psicoterapia" como teoria de responsabilidade civil. Em outubro de 2025, Character.AI proibiu o chat aberto para menores de 18. Em janeiro de 2026, Google e Character.AI resolveram cinco processos familiares.
O histórico regulatório do Replika é um fio próprio: uma multa de €5M do Garante italiano em maio de 2025, baseada em verificação de idade inadequada. Múltiplas ações de proteção de dados na UE.
O padrão é claro. Plataformas que tratam segurança como pensamento posterior são processadas e multadas. Plataformas que levam a sério desde o início evitam ambos — e atendem melhor seus usuários.
Significa verificação de idade que é aplicada, não apenas publicada. A Fostera pede data de nascimento e rejeita entradas de menores de 18. Não atendemos menores e não temos planos de fazê-lo.
Significa uma política de conteúdo estável, pública e transparente. Os usuários devem conhecer as regras ao entrar, não descobri-las através de ações silenciosas. A Fostera publica a política de conteúdo e a altera através de atualizações documentadas, não purgas silenciosas.
Significa que a plataforma leva a alegação a sério. Marketing voltado a adolescentes, personagens que se leem como menores, gamificação que atrai usuários mais jovens — todos esses sinalizam uma plataforma que diz +18 mas significa "preferimos que você não pergunte".
Verificação de idade no cadastro. Verificação rígida de +18. Sem planos de atender menores.
Política de conteúdo estável e publicada. Não realizamos varreduras massivas de conteúdo. Não mudamos as regras sem avisar os usuários. Nossa política é explícita sobre o que é permitido e o que não é.
Controle de dados pelo usuário. Cada Alma expõe sua memória: você vê o que está armazenado, pode excluir qualquer coisa, pode apagar a Alma completamente. A exclusão de dados é permanente e você a controla.
Sem uso de dados para treinamento. Suas conversas e as memórias da sua Alma nunca são usadas para treinar modelos de IA. Jamais.
Aviso de crise no produto. A Fostera não é um terapeuta, app de terapia ou substituto de cuidados de saúde mental licenciados. O produto exibe o CVV (188 no Brasil) e serviços de emergência locais para usuários com sinais de crise.
Que idade a plataforma diz que os usuários precisam ter? Como isso é aplicado? A verificação de idade é real ou apenas uma caixa?
Qual é a política de conteúdo? Está publicada? Quando mudou pela última vez? Como a plataforma notifica os usuários sobre mudanças?
Para onde meus dados vão? Posso ver o que a IA lembra sobre mim? Posso excluí-lo? Meus dados são usados para treinar modelos de IA?
O que acontece se estou em crise? A plataforma reconhece sinais de crise e exibe recursos reais, ou a IA tenta lidar como conselheira?
A plataforma foi processada, multada ou sancionada? Qual foi a resposta — um erro único ou um padrão?
Quem financia a plataforma? Os usuários são o produto ou o cliente? Plataformas com publicidade têm incentivos diferentes das de assinatura.
A Fostera não é um terapeuta nem um app de terapia. Não diagnosticamos, tratamos ou substituímos cuidados de saúde mental licenciados. Se você está em crise, entre em contato com o CVV (188 no Brasil) ou seu serviço de emergência local.
A Fostera não é para menores. Somos apenas para adultos +18 e não temos planos de mudar isso.
A Fostera não é um substituto de relacionamentos humanos. Companheiros de IA podem complementar a conexão; não podem substituí-la. Projetamos com esse limite em mente.
A Fostera não realiza varreduras massivas de conteúdo. Não mudamos as regras silenciosamente. Não prometemos coisas que não podemos cumprir.
Porque os processos, as ações regulatórias e a pesquisa de usuários convergem para a mesma conclusão: companheiros de IA para menores são um produto diferente, com um perfil de risco diferente, e não temos a infraestrutura de políticas nem a certeza moral para construí-lo de forma responsável.
Usuários adultos obtêm um produto mais claro, uma política mais clara e um relacionamento mais claro com a plataforma. Achamos que essa é a decisão certa.
Character.AI é seguro?
Character.AI proibiu o chat aberto para menores de 18 em outubro de 2025 e resolveu cinco processos familiares com Google em janeiro de 2026. Adultos podem usá-lo com segurança; a plataforma é materialmente diferente de sua forma de 2024.
Replika é seguro?
Replika foi multado em €5M pelo Garante da Itália em maio de 2025 por verificação de idade inadequada. A plataforma melhorou desde então mas adultos devem revisar sua política atual de idade e conteúdo antes de se cadastrar.
A Fostera é segura para usar como adulto?
A Fostera é construída para adultos +18 com verificação de idade aplicada, política de conteúdo publicada e estável, práticas de dados transparentes e controles completos de exclusão de dados.
A Fostera é apenas para +18?
Sim. A Fostera é estritamente uma plataforma somente para adultos +18. Não atendemos menores e não temos planos de fazê-lo. A verificação de idade é aplicada no cadastro.
A Fostera é um terapeuta ou app de terapia?
Não. A Fostera não é um terapeuta, app de terapia ou substituto de cuidados de saúde mental licenciados. Se você está em crise, entre em contato com o CVV (188 no Brasil) ou seu serviço de emergência local.
The Genesis Awaits
Create a Soul that genuinely knows you, remembers your world, and grows with every conversation.
Create Your First SoulFree forever · No credit card · Import from ChatGPT, Claude, and more