Lei de Goiás propõe ensino em escola pública e open source para regulamentar IA no país
Com foco no desenvolvimento, proposta construída com participação pública e coordenada pelo ITS Rio prevê uso de energia renovável e requisitos para eventual uso de agentes de IA

O governo de Goiás pode aprovar a primeira política estadual de fomento e regulamentação de inteligência artificial (IA) do país. A proposta, obtida em primeira mão pela Fast Company Brasil, inclui o ensino da tecnologia no currículo das escolas públicas, estabelece a preferência legal por IA de código aberto e prevê a criação de um centro estadual de computação. O texto também regulamenta o uso de agentes autônomos e estabelece critérios para a auditabilidade dos modelos.
Em meio a uma corrida para regulamentar a IA pelo mundo, a lei goiana pretende mitigar os riscos do uso de IA sem frear o desenvolvimento da tecnologia. O projeto foi elaborado ao longo de mais de um ano em processo participativo conduzido pelo Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio) com apoio da Associação Brasileira de Internet (Abranet). Por meio de um site chamado “O que queremos da IA?" e de participações em eventos presenciais, houve uma escuta ativa de vários setores da sociedade.
Os membros do ITS Rio foram diretamente envolvidos na criação do Marco Civil da Internet, que também contou com processos de debate público. Diferentemente do marco regulatório proposto pelo Senado, a lei goiana parte do controle feito a posteriori, com foco em experimentação supervisionada e não em autorização prévia ao uso da tecnologia.
IA NO CURRÍCULO ESCOLAR
Um dos destaques da proposta está a inclusão da inteligência artificial no currículo da rede pública estadual, iniciando um processo de alfabetização em IA. A ideia é ensinar os estudantes a entenderem como essas tecnologias funcionam, como afetam o cotidiano e quais são os dilemas éticos associados ao seu uso.
A formação começa no ensino fundamental, como disciplina eletiva ou conteúdo transversal, especialmente nas áreas de matemática, ciências, informática e humanidades. Professores também serão atualizados com relação ao tema.
A lei goiana pretende mitigar os riscos do uso de IA sem frear o desenvolvimento da tecnologia
A proposta também estabelece parcerias com universidades e com o Sistema S (SENAI, SESI, SENAC, SEBRAE, entre outros) para a formação técnica de jovens e trabalhadores. A meta é preparar a população para um mercado que já está sendo transformado por ferramentas automatizadas e reduzir o risco de desigualdade digital em um estado com forte presença no setor agroindustrial e crescente vocação tecnológica.
Segundo o texto, a IA deve ser tratada como instrumento de cidadania. Isso significa criar condições para que crianças e adolescentes aprendam desde cedo a lidar com sistemas automatizados, entendam os impactos sociais dos algoritmos e possam atuar de forma crítica e informada em uma sociedade digitalizada.
OPEN SOURCE É REGRA
A proposta de Goiás estabelece que o poder público deve adotar, sempre que possível, sistemas de inteligência artificial baseados em código aberto. Soluções proprietárias só poderão ser utilizadas mediante justificativa técnica. A intenção é garantir maior transparência, auditabilidade e independência tecnológica, pontos que ainda não aparecem de forma explícita nas propostas em discussão no Congresso Nacional.
“Por mais de uma década, o Brasil liderou mundialmente em software livre. Infelizmente essa liderança foi perdida. Com essa lei, Goiás irá retomar essa posição, atraindo talentos e investimentos direcionados para a IA aberta”, diz Ronaldo Lemos, cientista-chefe do ITS Rio.
Segundo o texto, a IA precisa ser compreensível, acessível e auditável
Além disso, o texto prevê a criação de um Centro Estadual de Computação Aberta e Inteligência Artificial. A estrutura será compartilhada entre o governo, universidades, centros de pesquisa e startups, com o objetivo de oferecer poder computacional gratuito ou subsidiado para o desenvolvimento de projetos de interesse público. A infraestrutura também deverá operar com fontes de energia renovável, especialmente o biometano, fortalecendo a proposta de uma IA alinhada à transição energética e à sustentabilidade.
A lógica por trás dessas iniciativas é clara: se a IA será parte dos sistemas de saúde, educação e segurança pública, ela precisa ser compreensível, acessível e auditável e não uma “caixa preta” operada por terceiros com fins comerciais.
AGENTES DE IA NA MIRA
A proposta goiana dedica um capítulo específico aos chamados agentes autônomos de inteligência artificial. A lei estabelece parâmetros para o desenvolvimento, testagem e eventual uso desses sistemas no estado. Entre os requisitos estão: supervisão humana mínima obrigatória, transparência sobre funcionamento e capacidades, além da obrigatoriedade de mecanismos de desligamento emergencial (“kill switch”).
Estado também deve produzir infraestrutura, formar cidadãos e liderar o desenvolvimento de soluções abertas e auditáveis
Esses agentes poderão ser testados no Sandbox Estadual, ambiente regulatório experimental supervisionado pelo Núcleo de Ética e Inovação em Inteligência Artificial (NEI-IA). Fora desse espaço de testes, os agentes deverão atender a exigências mínimas, como comunicação clara sobre sua natureza artificial, auditorias independentes e supervisão humana efetiva em casos que envolvam risco a direitos fundamentais.
O projeto também autoriza a criação de incentivos fiscais, regulatórios e creditícios para o desenvolvimento local desses sistemas, especialmente quando forem abertos, auditáveis e voltados a impacto social ou ambiental positivo.
UM MODELO ALTERNATIVO DE REGULAÇÃO
A proposta de Goiás apresenta uma lógica diferente das principais tentativas de regulação da IA. Enquanto o PL do Senado brasileiro e o AI Act da União Europeia priorizam o controle de riscos com foco em restrições, classificações e sanções, a proposta goiana parte do princípio de que o Estado também deve produzir infraestrutura, formar cidadãos e liderar o desenvolvimento de soluções abertas e auditáveis.
O AI Act, por exemplo, classifica sistemas de alto risco e impõe regras técnicas rígidas para o setor privado, mas não trata de alfabetização digital, nem exige software aberto ou estabelece parcerias com escolas. O PL do Senado, por sua vez, prevê uma autoridade reguladora, mas ainda carece de diretrizes para educação pública, centros de computação ou programas de capacitação profissional.
Se aprovada, a lei pode servir como base para outros estados e influenciar o debate federal.