Limitações da Avaliação Automatizada de Acessibilidade em uma Plataforma de MOOCS: Estudo de Caso de uma Plataforma Brasileira

Autor: Napoliana SOUZA, Eduardo CARDOSO, Gabriela Trindade PERRY
Jazyk: portugalština
Předmět:
Zdroj: Revista Brasileira de Educação Especial
Druh dokumentu: article
ISSN: 1980-5470
1413-6538
DOI: 10.1590/s1413-65382519000400005
Popis: RESUMO Os Massive Open Online Courses (MOOCs) têm sido anunciados como uma ferramenta educacional promissora, impulsionando um elevado número de inscrições, de forma a viabilizar a aprendizagem de forma aberta e com ênfase na diversidade de usuários. No entanto, a literatura tem apontado a falta de acessibilidade em MOOCs. Com a intenção de aprimorar o suporte à acessibilidade de uma plataforma de MOOCs, um curso com material multiformato foi avaliado com uso de ferramentas automatizadas. Os resultados dos testes automatizados indicaram alguns problemas de acessibilidade da plataforma, que podem dificultar a participação de pessoas com deficiência, sinalizando a necessidade de projetar tais plataformas de forma inclusiva. Contudo, esse tipo de teste não é capaz de identificar áreas, funcionalidades e conteúdos relevantes dentro de uma página da web, bem como não é capaz de reconhecer diferentes papéis de usuários. O resultado é que áreas da plataforma que não são visíveis aos estudantes (como áreas de administração da plataforma e de edição dos cursos) também são avaliadas nesses testes - mesmo que não seja esse o objetivo. Por esse motivo, concluiu-se que, para avaliar o suporte à inclusão, é necessário aliar aos testes automatizados um método qualitativo. A indicação da limitação desse tipo de teste é a constatação mais importante.
Databáze: Directory of Open Access Journals