Por que a maioria dos treinamentos de conformidade com a AI Act não funcionam

Por que a maioria dos treinamentos de conformidade com a AI Act não funcionam

Como é um bom design de aprendizagem

Existe um tipo específico de módulo de eLearning que a maioria de nós já assistiu. Ele abre com um resumo do regulamento. Ele progride através de uma série de obrigações específicas. Termina com um questionário de dez perguntas que testa a lembrança do que acabou de ser exibido na tela. E então isso marca você como compatível. Essa abordagem sempre foi um substituto pobre para o aprendizado. Para a Lei de IA da UE, também é um passivo.

O problema não é o esforço ou a intenção; é projeto. A maior parte do eLearning de conformidade é construída em torno da transferência de informações, não da mudança de comportamento. Estes são problemas diferentes que exigem soluções diferentes, e a ciência que aprende sobre este assunto tem sido consistente há décadas.

A transferência – a capacidade de aplicar a aprendizagem num novo contexto – não acontece automaticamente após a exposição ao conteúdo. A pesquisa sobre a memória dependente do contexto mostra que a recuperação é orientada pelo ambiente em que a aprendizagem ocorreu. Se alguém aprender o que a Lei de IA exige lendo os slides, é mais provável que se lembre dessa informação quando estiver sentado diante dos slides. É menos provável que se lembrem disso quando estão numa reunião, sob pressão, prestes a tomar uma decisão sobre sinalizar uma ferramenta de IA à sua equipa de conformidade.

A recuperação espaçada – retornar ao material ao longo do tempo, em vez de abordá-lo uma vez – supera consistentemente o treinamento de sessão única para retenção de longo prazo. No entanto, a grande maioria dos programas de conformidade são concebidos como eventos únicos, muitas vezes programados para coincidir com um prazo regulamentar e não com uma curva de aprendizagem. O resultado é uma formação que produz certificados de conclusão e não de competência. Para um regulamento que exija explicitamente que os trabalhadores demonstrem apropriado Alfabetização em IA, essa distinção é enormemente importante.

O que o Artigo 4 realmente exige de uma perspectiva de design de aprendizagem

O artigo 4.º da Lei da UE sobre IA estabelece que os fornecedores e implantadores de sistemas de IA devem tomar medidas para garantir – na medida do possível – que o pessoal tenha conhecimentos suficientes em IA. O regulamento não especifica horas de treinamento, formatos de módulos ou métodos de avaliação. Ele especifica resultados. Vale a pena analisar isso, porque a maioria das equipes de T&D interpreta a linguagem regulatória como uma restrição, quando na verdade é um convite.

O regulamento pergunta: o seu pessoal tem literacia suficiente para interagir adequadamente com os sistemas de IA no âmbito das suas funções? Essa questão é inteiramente respondida através do Design Instrucional. A questão de saber o que significa “literacia adequada” para um gestor de compras que analisa as pontuações de risco de fornecedores geradas por IA é diferente do que parece para um administrador de RH que utiliza uma ferramenta de triagem de currículos assistida por IA. Estes não são o mesmo problema de aprendizagem e um único módulo genérico não pode resolver ambos.

A implicação instrucional é uma mudança do pensamento no nível do programa para o pensamento no nível da função. Antes de um único slide ser elaborado, a questão do design de aprendizagem é: quais decisões essa pessoa precisa tomar e o que ela precisa entender para tomá-las corretamente?

Esta é a análise de tarefas padrão, aplicada à alfabetização em IA. A Lei AI não exige um curso de conformidade. Exige que as pessoas possam fazer algo – especificamente, que possam interagir com sistemas de IA com conhecimento suficiente para reconhecer riscos, fazer perguntas apropriadas e escalar quando necessário. Designers Instrucionais sabem como projetar para isso. O enquadramento regulamentar não deve desviar a atenção do trabalho.

Design de cenário: colocando os alunos na decisão, não na aula

Se o Artigo 4 é uma especificação de resultados, então a concepção baseada em cenários é o mecanismo de entrega óbvio. O objetivo não é ensinar o regulamento; é construir o julgamento para agir corretamente sob condições que o aluno realmente encontrará.

O design eficaz de cenários para conformidade com a AI Act começa com contextos de local de trabalho realistas. Não descrições abstratas de “uma empresa que usa IA”, mas as situações específicas que seus alunos-alvo enfrentam: o gerente de contratação que recebe uma lista classificada de uma ferramenta de triagem de IA e tem que decidir se a seguirá; o líder da equipe de atendimento ao cliente cujo sistema de IA sinaliza uma interação com o cliente para revisão; o analista que é solicitado a apresentar previsões geradas por IA a um conselho sem a documentação do modelo em mãos. Cada um deles é um ponto de decisão, não um ponto de informação. A função do cenário é colocar o aluno dentro da decisão – com pressão contextual suficiente para que a escolha pareça real – e depois revelar as consequências dos diferentes caminhos.

A ramificação é essencial aqui, mas a ramificação mal feita é apenas várias rotas para a mesma tela final. Os ramos precisam refletir a gama real de raciocínio que seus alunos trazem para uma situação. Um ramo para o aluno que segue o resultado da IA ​​de forma acrítica. Um para o aluno que escala adequadamente. Um caminho para o aluno que reconhece um problema, mas o trata de forma incorreta – o caminho educacional mais valioso e o mais frequentemente omitido.

O caminho do erro é onde o aprendizado acontece. Se um aluno seguir o caminho errado, ele precisará experimentar por que errou – não ser informado imediatamente, mas experimentar as consequências posteriores. Um acompanhamento realista: a reclamação, a questão da auditoria, o momento em que um colega recua. Depois a reflexão, ligada diretamente à decisão que tomaram.

Isto requer mais tempo de produção do que um módulo baseado em slides. Também produz resultados significativamente diferentes. Os alunos que praticam a tomada de decisões no contexto têm maior probabilidade de tomar decisões corretas no contexto. Essa não é uma filosofia de design; é o que prevê a pesquisa de transferência.

Especificamente para os programas AI Act, os temas dos cenários mais produtivos tendem a agrupar-se em torno de alguns tipos de decisão principais: quando confiar nos resultados da IA ​​e quando substituir; como identificar se um sistema de IA está sendo usado dentro da finalidade sancionada; e como escalar uma preocupação sem conhecer o quadro técnico completo. Estas não são questões de conhecimento. São questões de julgamento e requerem prática de julgamento.

Medindo o que realmente interessa ao regulamento

As taxas de conclusão não são um resultado de aprendizagem. Eles são uma métrica de participação. Para muitos programas de compliance, isto não tem importância; o requisito regulatório foi comprovadamente atendido pela evidência de que um funcionário concluiu um módulo. O artigo 4.º complica esta situação, porque o resultado que o regulamento aponta não é a conclusão. É capacidade.

O desenho da avaliação para os programas do AI Act deve, portanto, testar a aplicação, e não o recall. Uma pergunta que pergunta “qual é a definição de um sistema de IA de alto risco?” testa a memória. Uma pergunta que apresenta um cenário – “Sua equipe de compras deseja usar uma ferramenta de IA para pontuar contratos de fornecedores; o que você deve fazer antes de aprovar isso?” – testa o julgamento. Estas não são equivalentes e as avaliações construídas a partir do primeiro tipo não produzirão provas do segundo.

Do ponto de vista do design, isto significa construir cenários de avaliação distintos dos cenários de aprendizagem, mas com estrutura paralela. O aluno não deve reconhecer a avaliação como uma repetição de um conteúdo que já viu; eles devem encontrar uma situação que não praticaram especificamente e demonstrar que podem raciocinar corretamente.

Para programas que necessitam de demonstrar conformidade, os dados de desempenho em avaliações baseadas em cenários são substancialmente mais defensáveis ​​do que um certificado de conclusão. Um registo que mostre que um aluno identificou e escalou corretamente um caso de utilização de IA de alto risco, sob condições de avaliação, é uma prova de capacidade. Um registro mostrando que eles clicaram em 12 slides e obtiveram 80% de pontuação em um teste de recordação é uma prova de participação.

Os Designers Instrucionais devem apresentar esse argumento aos seus colegas jurídicos e de compliance desde o início. O padrão de evidência que a T&D pode produzir, se o programa for concebido corretamente, é na verdade mais forte do que o que a maioria das organizações está a gerar atualmente.

A camada de documentação que L&D continua ignorando

Há um problema de design incorporado nos programas de conformidade da AI Act que a maioria das equipes de T&D ainda não enfrentou: a trilha de auditoria. A conformidade regulatória exige não apenas que o treinamento aconteça, mas que o treinamento apropriado aconteça para as pessoas apropriadas e que haja um registro dele. Para programas criados em ambientes LMS padrão, isso geralmente é tratado como uma saída automática: o sistema registra as conclusões e, portanto, a documentação existe.

Isso é insuficiente por alguns motivos. Primeiro, um log de conclusão não captura o que foi concluído, apenas que algo foi. Se o programa for questionado posteriormente – por um regulador, um auditor ou uma revisão interna – a documentação precisa mostrar que o conteúdo de aprendizagem era apropriado à função do aluno e aos sistemas de IA com os quais trabalha. Módulos genéricos registrados em um LMS genérico não demonstram isso.

Em segundo lugar, se o programa utiliza cenários de ramificação, a documentação mais valiosa não é apenas a conclusão – são os dados do percurso. Que decisões os alunos tomaram? Quantas tentativas um aluno precisou para passar na avaliação? Foi desencadeada uma via corretiva? Esta informação é evidência de um envolvimento genuíno com a aprendizagem e quase nunca é captada por defeito.

Projetar para documentação não é uma tarefa legal. É uma tarefa de design. Significa especificar, desde o início, quais dados o LMS ou plataforma de aprendizagem precisa capturar e garantir que a arquitetura do programa os produza. Esta é uma conversa entre Designers Instrucionais e administradores de LMS que precisa acontecer antes da construção, não após o lançamento.

O que “Apropriado” realmente significa para designers instrucionais

A Lei de IA da UE usa a palavra “apropriado” 17 vezes. Para as equipes jurídicas, essa ambigüidade é uma dor de cabeça. Para Designers Instrucionais, é um espaço de trabalho.

A alfabetização “apropriada” em IA não é definida centralmente porque não pode ser. O que é apropriado para um radiologista que utiliza uma ferramenta de diagnóstico de IA não é apropriado para um operador de armazém cujo agendamento de turnos é gerenciado por um algoritmo. O regulamento pede às organizações que façam um julgamento contextual, e esse julgamento é fundamentalmente um problema de Design Instrucional: quem precisa de saber o quê, para agir como?

As organizações que tratam o Artigo 4 como uma caixa a ser assinalada construirão o módulo mais barato que satisfaça a leitura mais restrita do requisito. As organizações que o interpretarem como um resumo de concepção criarão programas com funções diferenciadas, baseados em cenários realistas, avaliados com base no julgamento demonstrado e documentados de uma forma que resista ao escrutínio. A segunda abordagem exige mais habilidade. Também produz treinamento que realmente funciona – o que, no longo prazo, é o objetivo.

A ambiguidade do regulamento não é motivo para esperar por orientações mais claras. É uma razão para aplicar boas práticas de Design Instrucional e documentar a lógica. Se o objetivo de aprendizagem estiver claramente vinculado a uma função específica, a um conjunto específico de interações de IA e a um padrão específico de julgamento (e se as evidências da avaliação demonstrarem que os alunos podem atender a esse padrão), então o argumento de conformidade é forte. É para isso que os Designers Instrucionais são treinados para construir. A Lei AI apenas tornou isso obrigatório.



Fonte: Feed Burner

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *