Especificando la responsabilidad algorítmica
Autor: | Aguirre Sala, Jorge Francisco |
---|---|
Rok vydání: | 2022 |
Předmět: | |
Zdroj: | Teknokultura. Journal of Digital Culture and Social Movements; Vol. 19 No. 2 (2022): Digital Education in the Time of COVID-19; 265-275 Teknokultura. Revista de Cultura Digital y Movimientos Sociales; Vol. 19 Núm. 2 (2022): La educación digital en tiempo del COVID-19; 265-275 Teknokultura. Revista de Cultura Digital e Movimentos Sociais; v. 19 n. 2 (2022): La educación digital en tiempo del COVID-19; 265-275 Revistas Científicas Complutenses Universidad Complutense de Madrid (UCM) |
ISSN: | 1549-2230 |
Popis: | In seeking to specifying algorithmic responsibility, the aim is to classify protective actions against the impact of artificial intelligence. The article provides a description of the problems caused by artificial intelligence, as well as a review of evaluation models and their components in order to guide best practice and methods in the specification of the algorithmic footprint. The analysis of four evaluation models shows that the best models are those related to risk and legal responsibility. Good evaluation practices endeavor to obtain quantitative expressions of qualitative aspects, while the conclusions warn of difficulties in building standardized formulas. The metrics of quantitative expressions must consider weights, based on the number of areas affected, and establish the severity in four levels of impact, risk or damage. This permits the reciprocity of four protective actions: the prohibition of some systems, ensuring damage repair, promoting impact mitigation, and establishing risk prevention. Especificar la responsabilidad algorítmica tiene por objetivo clasificar las acciones de protección ante los impactos de la Inteligencia Artificial. La descripción de los problemas causados por la Inteligencia Artificial, aunada a la revisión de los modelos y componentes de las evaluaciones, permiten discernir sobre las buenas prácticas y métodos para establecer la huella algorítmica y las respectivas consecuencias. Se enumeran los seis inconvenientes causados por la Inteligencia Artificial, enfatizando las violaciones a los derechos fundamentales y las carencias de las autoridades para garantizar las normativas aplicables. El análisis de cuatro modelos de evaluación muestra la conveniencia de enfocarse en el riesgo. Se analizan los componentes y elementos deseables en todas las evaluaciones de impacto algorítmico desde la literatura atingente de los años 2020 y 2021. Se recogen las lecciones de las buenas prácticas de evaluación para demostrar que: las discusiones sugieren transitar hacia expresiones cuantitativas de los aspectos cualitativos, mientras las conclusiones advierten dificultades para construir una fórmula estandarizada de Evaluación. Se propone que las métricas procedan por ponderaciones o valores factoriales, según el número de ámbitos o dominios afectados y la gravedad se establezca en cuatro niveles de impacto, riesgo o daño. En simetría se plantean cuatro acciones de protección: prohibir algunos sistemas de Inteligencia Artificial, asegurar la reparación de daños causados por decisiones tomadas con algoritmos, promover la mitigación de impactos indeseables y establecer la prevención de riesgos. A especificação da responsabilidade algorítmica visa classificar as acções de protecção contra os impactos da Inteligência Artificial. A descrição dos problemas causados pela Inteligência Artificial, juntamente com a revisão dos modelos e componentes das avaliações, permitem discernir boas práticas e métodos para estabelecer a pegada algorítmica e as respectivas consequências. Os seis inconvenientes causados pela Inteligência Artificial são enumerados, salientando as violações dos direitos fundamentais e as deficiências das autoridades em garantir a regulamentação aplicável. A análise de quatro modelos de avaliação mostra a conveniência de se concentrar no risco. Analisa os componentes e elementos desejáveis em todas as avaliações de impacto algorítmicas da literatura relevante para os anos 2020 e 2021. São extraídas lições de boas práticas de avaliação para mostrar que: as discussões sugerem que se avança para expressões quantitativas de aspectos qualitativos, enquanto as conclusões alertam para as dificuldades na construção de uma fórmula de avaliação normalizada. Propõe-se que a métrica proceda por ponderações ou valores factoriais, de acordo com o número de áreas ou domínios afectados e a severidade seja estabelecida em quatro níveis de impacto, risco ou dano. Em simetria, são propostas quatro acções de protecção: proibir alguns sistemas de Inteligência Artificial, assegurar a reparação de danos causados por decisões tomadas com algoritmos, promover a mitigação de impactos indesejáveis, e estabelecer a prevenção de riscos. |
Databáze: | OpenAIRE |
Externí odkaz: |