数据伦理大作业

2022/05/03 课程作业 共 1032 字,约 3 分钟

通过材料,我们可以看出虽然人工智能技术对成绩有提升,但同时也存在伦理风险,主要体现在:

  1. 使用权利。事件中提到学校直接同意公司来采集了海量学生的教育数据如个人身份信息、行为轨迹、学习偏好、出入图书馆次数等等。但是学生是数据的产生者,拥有权利,但学校公司在使用之前,学生并未签订同意书,是违法的。

  2. 信息隐私安全。所采集的海量教育数据,若未得以有效保护或被非法使用,则会引发信息安全问题,例如个人隐私资料被恶意泄露及不正当使用、非法电子监控、网络诈骗、数据侵权等,学生的隐私权利在人工智能透视镜下将变得十分脆弱。

  3. 缺乏技术规约人文化教育。对公司来说,由于商业利益至上的理念根深蒂固,可能会依托人工智能技术工具过度追逐私利,为了提高学生成绩不择手段,欠缺对教育成长的价值关怀;而且将“问题学生”放在一个班里,会对学生造成自尊心的损害、心理问题等。若缺乏有效的技术标准与“强制性”法律手段加以规约,则可能导致人工智能逐渐偏离教育价值与人文立场,适得其反。

  4. 过度资源依赖。学生可能会对预判的升学结果形成依赖,如果预测结果高,可能学习会懈怠;如果预测结果低,所带来的个性化教育可能会影响学生的学习积极性。这种看似公平的算法,也可能隐含歧视、技术偏向,要是预测结果有偏差会严重影响学生的自身发展规律。而且,教师也可能为节省成本,过度依赖人工智能推送的方案,丧失对教育的独特理解及思考。学校只依靠算法来分班,所以面对质疑并不能说出依据。

为了避免后面产生的问题,应该做如下措施:

  1. 保证学生和家长知情并参与权。在使用信息前就应该与家长学生沟通,让他们签订知情同意书。学校还应引导家长和学生合理反馈人工智能的伦理、舒适感问题,并构建畅通的信息反馈渠道,以便持续改善人工智能的教育应用成效,让家长不反感人工智能参与教学。

  2. 不过度依赖人工智能。对学生所制作的方案不仅由算法决定,学校、家长也应该参与方案制定,根据学生的自身情况来分析方案可行性并修改方案,决定出最终的方案。这样在面对家长质疑时,学校也有理由来说明结果。除此之外因为有了老师的参与也避免了方案偏离教育价值与人文立场的问题,更能保证学生心理健康问题。

  3. 完善教育人工智能算法审查及安全。人工智能算法的运行偏差有可能持续存在,对人工智能算法模型的前提假设进行教育本质层面的剖析,最大限度保障学生数据及信息的精确性以及伦理规范。而且学校应在某项人工智能技术推广应用之前,评估该技术的数据安全情况,考虑数据是否应该经过脱敏处理,避免非法分享和使用数据。

文档信息

Search

    Table of Contents