2025-11-20 08:16来源:本站

柏林:在过去的一年里,研究人员在几篇科学论文中发现了使用人工智能文本生成器的明确证据。
然而,当涉及到人工智能聊天机器人的非法学术用途时,我们可能只看到了冰山一角。
一些作者被发现发表了看似合法的科学参考文献,但这些文献完全是由人工智能发明的。其他人则将ChatGPT用户界面的文本片段粘贴在他们的作品中。
据《自然》杂志2023年9月的一篇文章报道,一项数学研究甚至被撤回,因为它被证明无意中使用了人工智能界面短语“再生响应”。
当AI文本生成不透明时,它的使用是最有问题的。换句话说,当服务可能是伪造的时候。
自2022年底ChatGPT公开以来,如何应对向人工智能文本生成转变的问题一直在大学里争论不休。
尽管全球对其总结信息和书写人类语言水平文本的能力大肆宣传,但专家表示,微软旗下的ChatGPT和谷歌的Bard等工具距离人类智能还有很长的路要走。
研究:人工智能探测器经常失灵
许多教师把希望寄托在声称可以检测人工智能文本的软件上。这是否意味着作弊的终结?
一点也不,一位专家说。
来自柏林HTW应用科学大学的剽窃研究人员黛博拉·韦伯-伍尔夫说:“用一个简单的软件解决方案来揭开人工智能文本的面纱的希望不会成为现实。”
“有很多自封的探测器程序,但他们没有做他们应该做的事情。”她说,一些制造商甚至自己也承认存在缺陷和局限性。
韦伯-伍尔夫参与了一项研究,对14个明显的人工智能探测器进行了测试。根据这项研究,当涉及到是人类还是机器写了一篇文章的问题时,这些工具并没有提供可靠的结果。
该研究小组于12月底在《国际教育诚信杂志》上发表了他们的研究结果。
“在不确定的情况下,系统倾向于假设人类作者,”韦伯-伍尔夫解释说。“因为,当然,人们不希望受到错误的指控。这对教育部门也将是灾难性的。”
抄袭比人工智能更容易证明
然而,该研究指出,核心问题在于,大约五分之一的人工智能文本没有被识别出来。根据这项研究,如果人工智能文本由人类修改,程序无法识别的人工智能使用率会进一步增加。
检测器的结果也不容易为普通用户解释:一些检测器提供了文本由人工智能工具生成的概率百分比指示。
缺乏具体的证据,这意味着大学可能会发现很难在此基础上证明不当行为。韦伯-伍尔夫说:“与剽窃不同,不可能将文本与原文进行比较。”
韦伯-伍尔夫说,她知道有讲师提出怀疑,学生承认使用人工智能的案例。她还假设人工智能聊天机器人正在被广泛使用——通常学生们都没有意识到他们做错了什么。
在关于探测器的研究中,专家们指出,高等教育机构没有为人工智能工具的快速和彻底的自由发展做好准备。使用人工智能提供帮助并不总是不道德的。
“我们需要非常仔细地考虑如何衡量绩效,”韦伯-伍尔夫说。这可能意味着未来的任务应该以一种与过去完全不同的方式来设定。
她说,让学生在人工智能工具的回答中发现错误,需要成为这项工作的一部分。
韦伯-伍尔夫说,毕竟,人工智能聊天机器人和鹦鹉没什么区别,因为它们只鹦鹉学舌。这就是为什么教学生学术写作的标准是很重要的,比如脚注的目的。
如果使用人工智能系统,就需要透明地处理它们。“你必须对系统产生的所有垃圾负全部责任。没有借口。”——德通社
×