首页 > 期刊杂志 > 国际教育

ChatGPT,掀开人类与机器关系的新篇章

来源: 发布日期:2023-02-27

 近日,一种可以自动生成类似人类编写文本的计算机程序着实引起了教育界不小的轰动。其实在这之前,就有另一个被广泛分享的案例,机器自动生产的论文,文笔之妙足以顺利通过考试。自动化编写的文本还被证明可以用于设计测试,甚至在整个课程都可以使用。

 一些高等教育机构,如法国的巴黎政治大学(Sciences Po),对这种工具的使用进行了严格限制。该学校援引了其反剽窃章程和学术法规指出,“一件作品如果无法区分学生自己的思想和其他作者的思想”将被视为剽窃。

 然而,随着越来越多的学生、教师、研究人员开始与ChatGPT合作编写学术文本,其局限性变得越来越明显。人们提出了更多的论点,认为应该将使用机器生成的文本作为教育的一部分,而不是简单的一律禁止。

ChatGPT的工作原理

 了解这种类型的人工智能是如何工作的,是评估收益和风险的关键。ChatGPT的设计目的不是提供正确的信息。相反,它被设计成模仿人造文本,将单词组合在一起,就像该项目在训练过的文本中看到的那样。

 如果ChatGPT被要求列出一份关于特定主题的学术著作清单,它将提供一份听起来合理的书籍或文章清单,但大多数实际上并不存在。ChatGPT没有批判性过滤器,不能评估其产生的内容,也不能以任何方式自动进行学术意义上的批判。这是因为它处理的是一串单词,而不是它们背后的内容。然而,如果这些单词以从前多次看到的方式出现,那么在许多情况下,内容将是正确的。例如,ChatGPT可以回答是谁在1492年发现了美洲,或是1500年丹麦的国王是谁,但是它不会回答涉及此时此地的问题,因为它的训练是基于2021之前的材料进行的。

 事实上,在许多涉及新知识、处理歧义和质疑现有信念的学术环境中,ChatGPT似乎实际用处不大。在考试等需要明确答案、不需要参考资料的情况下,ChatGPT可能会有所帮助。例如,ChatGPT可以为驾驶理论考试给出好的答案。对于需要特定结构的文本来说,它也是一个有用的工具。例如,ChatGPT非常擅长诗歌创作。

 ChatGPT对学术文本的使用有限,但它仍然可能存在问题。巴黎政治大学的禁令提到了对学术诚信的担忧。ChatGPT也被用于撰写学术文章,在一些情况下,该工具被认为是作者本人。然而,根据《自然》杂志的一篇文章,许多出版商不接受数字工具成为合著者的说法,因为它没有做出科学贡献,也不能对其创建的内容负责。

另一种可能性

其他人则认为ChatGPT提供了一种可能性。在比利时的那慕尔大学,教授们明确鼓励学生使用该工具创建文本,以了解机器生成的文本与他们所学或自己的写作有何不同。在一定程度上,这让学习者看到了这些工具的局限性。

有人提出这样的观点,即人工智能产生的文本总结了已有的知识,这些文本非常适合作为出发点,我们应该采取批判性的思维,在此基础上去不断超越,比如,我曾试图运用这种方法改善政策制定。

ChatGPT背后团队的一名成员也指出了使用机器生成的文本可以拥有更多的可能性,因为它可以用作个性化学习的聊天机器人。据推测,这些工具必须首先给出正确的答案,但这可能并不遥远,因为大型搜索引擎正在推出他们的聊天机器人。

人类与机器

 对于使用人工智能的讨论,其实远比担心考试作弊,抑成文本要多得多。这些讨论关乎大学价值观,特别是各级学术工作的完整性,但也关乎探索人类与机器之间的新关系。

 一些标准化任务可以使用ChatGPT等工具实现自动化。它可以用于写电子邮件和简单的小文本。然而,它通常还需要带着一定的批判性去接受审查和编辑。很可能是通过这个打磨原始机器文本的过程,我们才能更加意识到人类与机器之间的差异,并学会重视我们的创造力和趣味性。正如欧洲大学协会最近的一份声明强调指出的,ChatGPT的发展和应用为大学提出了新的挑战,要不断更新政策,同时保护学术诚信。这应该被视为学习和教学的持续性发展,以及课程工作与真实评估的探讨的重要组成部分。

 从更广泛的角度来看,要创建一种学术文化,运用批判性思维对人工智能的运作、机遇和风险形成新的认识,并为ChatGPT的未来发展做好准备。