
2 个月前
一位资深教育心理学教授,面对一门新的博士课程,向生成式AI输入指令,几分钟内就得到了一份结构完整、内容丰富的教学大纲。他迅速浏览,凭借多年的经验剔除了几处不当建议,并优化了互动环节,最终高效地完成了一项繁琐的准备工作。
与此同时,在城市的另一端,一名高中生正为热力学定律苦恼不已。他向同一个AI模型提问:“为什么热量不是一种物质?”AI立刻生成了一段流畅、充满比喻的解释。学生读后豁然开朗,却未意识到这个解释为了通俗易懂,简化掉了一个关键前提,埋下了一个难以察觉的概念混淆。这个小小的“知识捷径”,可能会在未来的学习中变成难以绕开的思维陷阱。
这两个截然不同的场景,精准地指向了生成式AI时代一个日益凸显的核心议题:AI的价值与风险,并非由技术本身单方面决定,而是悬于使用者与使用情境的“天平”两端。
“我们应该使用生成式AI吗?”这个问题过于笼统。美国北卡罗来纳大学教堂山分校的教育心理学教授杰弗里·A·格林(Jeffrey A. Greene)博士认为,更精确的问题应该是:“谁在用?用来做什么?”
为此,他提出了一个清晰的二维坐标系来评估AI使用的合理性与风险:
这个坐标系划分出四个象限,为我们揭示了AI效能与风险的分布图:
专家-执行(Expert/Performance):这是风险最低、效率最高的区域。前文提到的教授设计教学大纲就属于此列。专家拥有足够的知识储备来评判AI生成内容的优劣,能快速识别“AI幻觉”(即一本正经地胡说八道),并将AI作为提升生产力的强大工具。
专家-学习(Expert/Learning):当专家试图学习未知领域时,风险随之增加。例如,教授让AI总结最新的科研论文。此时,AI可能提供有价值的线索,但也可能曲解或编造研究结论。专家必须启动审慎的验证模式,追溯原文、核对数据,将AI的输出作为待检验的假设,而非既定事实。
新手-执行(Novice/Performance):当新手需要完成一项低风险的、程序性的任务时,AI也能提供有效帮助。比如,学生请求AI提供管理各科作业和考试日期的策略。这类任务的后果可控,即使AI的建议不完美,试错成本也较低。但用户仍需跟踪建议的有效性。
新手-学习(Novice/Learning):这是风险最高、最需警惕的区域。文章开头的热力学学生便落入此区。由于知识储备不足,新手无法辨别AI输出信息中的细微错误或关键疏漏。研究表明,学习初期形成的错误概念极难纠正,会持续影响后续认知。更危险的是,这会助长学生的认知惰性,将AI视为答案的生产者而非学习的辅助工具,最终“抄了近路,却荒废了自己”。
“新手-学习”象限之所以危险,根源在于生成式AI固有的三大风险,它们如同潜伏在信息海洋下的暗流,对认知尚在构建阶段的学习者构成严重威胁。

算法偏见(Algorithmic Bias):AI模型的“世界观”源于其训练数据。如果数据中存在社会偏见(如性别、种族歧视),AI会忠实地学习并放大这些偏见。当学生通过AI学习社会、历史等议题时,可能在不知不觉中吸收并固化这些有失公允的观点。
认知依赖与能力退化:长期依赖AI进行“思维外包”,可能导致批判性思维、问题解决能力和创造力的萎缩。当AI包办了分析、推理、组织等复杂的认知劳动,人类大脑的相应“肌肉”便会因缺乏锻炼而退化。研究已开始警示这种“AI脑雾”现象,即过度依赖AI可能削弱用户的内在动机和独立思考能力。
面对AI这把锋利的“双刃剑”,我们需要的不是因噎废食,而是建立一套从技术到个人、从制度到文化的立体防御体系,实现从“能用AI”到“用好AI”的跨越。

制度防线:划定清晰的“游戏规则” 全球范围内的监管正在逐步跟上。例如,中国于2023年施行的**《生成式人工智能服务管理暂行办法》**,明确要求服务提供者采取措施防止生成虚假信息、歧视性内容,并对生成内容进行标识。这为AI的负责任发展提供了法律框架,也保护了用户的合法权益。
人的防线:提升全民AI素养 这或许是最关键的一环。未来的教育,不仅要教授知识本身,更要培养与AI协同工作的智慧。这意味着:
回归最初的问题,生成式AI究竟是解放生产力的天使,还是制造认知陷阱的魔鬼?答案取决于我们自己。它是一面镜子,映照出使用者的知识、意图与智慧。
未来,人与AI的关系将不再是简单的“用户”与“工具”,而是一种深度共生的伙伴关系。真正的赢家,不会是那些盲目拥抱或彻底拒绝AI的人,而是那些深刻理解其“效能坐标系”,懂得在不同场景下科学匹配、谨慎权衡的“AI驾驭者”。
从“能用”到“用好”,标志着我们正在进入一个更加成熟的AI应用新纪元。在这个纪元里,技术的价值最终将由人类的智慧来定义和实现。
点击充电,成为大圆镜下一个视频选题!