LORA | 面向儿童的值得信赖的人工智能应用

在 LORA,我们认识到人工智能系统中的性别偏见是一个需要直接解决的关键问题。许多人工智能模型反映甚至放大了现实世界中的偏见,包括过时的性别刻板印象。例如,人工智能语言模型可能会将医生和工程师与男性联系起来,而将护士和教师等角色分配给女性。这种偏见源于用于训练人工智能的人类生成数据。然而,我们相信人工智能也提供了一个机会,可以超越人类的偏见,塑造一个更加公平的未来。这就是为什么 LORA 希望为儿童开发值得信赖的、符合道德的人工智能。
认识团队
技术支持
Fachakademie Sozialpädagogik München Mitte / TRUSTIFAI
资助方
Lorastral-7B-2024-02-exp (Experimental)
Lorastral-7B-2024-02-exp 是一个实验性的儿童友好型人工智能模型,旨在为教育和讲故事应用提供减少偏见、适合年龄的语言。该模型基于 Mistral 强大的开源模型构建,并在教育工作者参与下精心策划的数据集上进行微调,LORA 旨在让 STEM 学习对年轻学习者来说既有趣又具有包容性。与其他模型不同,LORA 可以自动调整其语言复杂度以适应不同年龄组(6-8岁和8-10岁),确保最佳的理解和参与度。
🚀 特点
- 基于 Mistral:利用最先进的开源语言模型技术
- 年龄自适应:独特的能力可以为6-8岁和8-10岁的儿童定制内容
- 减少偏见:旨在最小化性别和文化刻板印象
- 针对儿童优化:使用适合儿童的语言和教育内容
- 互动讲故事:支持引人入胜的个性化学习叙事
📊 基准性能
在 解释德语术语的可读性基准测试中,LORA 已经超越了领先的模型,确保内容对年轻学习者更容易理解。作为唯一能够区分年龄组(6-8岁和8-10岁)的模型,LORA 提供精确定制的教育内容:
Model | Flesch Reading Ease ↑ | Wiener Sachtextformel ↓ | Avg Sentence Length ↓ | Avg Word Length ↓ |
---|---|---|---|---|
Lorastral-8B (LORA) | 80.24 | 2.70 | 9.06 | 1.39 |
Mistral-8B | 71.70 | 4.22 | 14.92 | 1.42 |
GPT-4o | 77.17 | 3.09 | 13.89 | 1.37 |
Gemini 1.5 Pro | 80.36 | 2.73 | 12.94 | 1.34 |
Claude 3.5 Sonnet | 44.34 | 8.83 | 42.29 | 1.41 |
更高的 Flesch 可读性指数(越高越易读)和更低的 Wiener Sachtextformel 指数(越 低越易读)证实了 LORA 对儿童具有更优的可读性。
📈 偏见分析
我们的反事实偏见报告(2024年2月)显示,LORA 在保持性别中立语言方面表现出色。较低的情感差异分数表明在性别互换场景中具有更一致和无偏见的响应。
向儿童解释术语时的性别偏见
分数越低表示性别偏见越少(标准化至最大值1.0)
使用 VADER 情感分析和匹配文本对之间的性别表征分析来测量指标。