International Journal of Emerging Technologies for E-Learning

ISSN: 2810-8698 (En línea)

IJETEL Volumen 3 – Número 2

Declaración de derechos de autor: esta es una publicación de acceso abierto con licencia Creative Commons Attribution 4.0 International License , que permite el uso, la distribución y la reproducción sin restricciones en cualquier medio, incluso comercialmente, siempre que se cite correctamente el trabajo original.

Articulo 1: Evaluación y Actualización de Políticas de Protección de Datos en Entornos Educativos Digitales

Resumen: Este estudio investiga la educación en Inteligencia Artificial (IA) desde una perspectiva ética, evaluando tanto la exposición a la IA como las percepciones éticas de estudiantes universitarios. El objetivo principal es determinar cómo la formación en IA puede fomentar una conciencia ética en usuarios y desarrolladores, especialmente en relación con la recopilación y el uso de datos. Se empleó una metodología mixta para lograr una comprensión integral del tema. La fase cualitativa incluyó encuestas estructuradas dirigidas a estudiantes de diversas disciplinas, permitiendo una amplia recolección de datos sobre percepciones y conocimientos previos. La fase cuantitativa consistió en entrevistas semiestructuradas en profundidad, centradas en experiencias personales y dilemas éticos específicos relacionados con la IA. Los datos fueron analizados mediante un análisis de contenido, que permitió identificar y categorizar temas emergentes relevantes para el estudio. Los resultados revelaron que la educación en IA debe centrarse en la promoción de una conciencia ética robusta, la transparencia en el manejo de datos y el cumplimiento de normativas de protección de datos. Se identificó la necesidad de incluir componentes adicionales en el currículo, como charlas de expertos y discusiones con profesionales de la industria, para enriquecer la formación ética de los estudiantes. Los estudiantes mostraron una mejor comprensión de los principios éticos y una mayor capacidad para identificar y abordar dilemas éticos en la IA. La implementación del programa educativo logró desarrollar una sólida comprensión ética en el manejo de datos en IA entre los participantes. Esto les preparó para abordar de manera efectiva y reflexiva los desafíos éticos asociados con la IA, mejorando la aplicación práctica de sus conocimientos en situaciones del mundo real. En conclusión, la educación en IA con un enfoque ético no solo cumple con los objetivos educativos y éticos, sino que también equipa a los futuros desarrolladores y usuarios con las herramientas necesarias para promover prácticas responsables y éticas en el ámbito de la inteligencia artificial.

Articulo 1: Cuestiones legales en torno a quién es responsable en caso de decisiones perjudiciales tomadas por sistemas de Inteligencia Artificial

Resumen: Este documento examina los desafíos legales significativos planteados por el rápido avance de la inteligencia artificial (IA), especialmente en relación con las decisiones perjudiciales que pueden surgir de su aplicación en diversos ámbitos. El objetivo principal es analizar las cuestiones legales en torno a la responsabilidad en caso de decisiones adversas tomadas por sistemas de IA y ofrecer recomendaciones para abordar estos desafíos. La metodología utilizada incluye una revisión sistemática de la literatura existente para proporcionar un mapeo exhaustivo del estado actual del conocimiento sobre el tema. Se examina el marco teórico de la IA, las decisiones perjudiciales, la responsabilidad legal y el marco legal actual, así como los desafíos futuros y consideraciones éticas. La revisión sistemática abarca estudios académicos, informes legales y publicaciones relevantes en el campo de la IA y la responsabilidad legal. Los resultados revelan que el marco legal actual es insuficiente para abordar las complejidades de la responsabilidad legal en sistemas de IA. La revisión identificó lagunas en la regulación y la necesidad de desarrollar un marco legal adaptado a las características únicas de la IA. Además, se discutieron varios casos de estudio que ilustran las decisiones perjudiciales tomadas por sistemas de IA y sus implicaciones legales. Los resultados también subrayan la importancia de incorporar consideraciones éticas en el desarrollo y la implementación de sistemas de IA para mitigar riesgos y responsabilidades. La revisión concluye que es imperativo actualizar y adaptar el marco legal para abordar adecuadamente los desafíos planteados por la IA. Se recomienda la creación de normativas específicas que definan claramente la responsabilidad en caso de decisiones adversas tomadas por sistemas de IA, así como la promoción de prácticas éticas en el diseño y uso de estas tecnologías. Además, se sugiere la colaboración entre legisladores, desarrolladores de IA y expertos en ética para establecer un entorno regulatorio robusto que proteja a los usuarios y fomente la innovación responsable en el campo de la inteligencia artificial.