让人类变聪明还是变低能?看看人工智能专家怎么说
来源:广搜网 日期:2025/3/31 20:14:59 浏览次数: 我要收藏
让人类变聪明还是变低能?看看人工智能专家怎么说
湖南日报
春节期间,一家创新型科技公司推出的人工智能对话助手——DeepSeek(深度求索)引发了社交媒体上的大讨论。DeepSeek具有中文深度处理能力,在短短十几秒内便能生成上千字的高质量文章,且创作的诗歌和文章,水平远超一些普通作者,在小说创作方面也具备了良好的叙事能力,令人们惊叹惶恐。此前,我们向DeepSeek提了关于作家与创作的问题,它告诉我们:“最危险的或许不是AI会写作,而是人类在技术便利中逐渐遗忘如何用颤抖的手书写灵魂的战栗。”
透过DeepSeek这扇窗,人工智能时代巨大的潜力已经展现在我们眼前。在这个系列中,我们将陆续邀请几位来自不同专业领域的嘉宾探讨相关话题。
湖南日报·新湖南客户端记者 廖慧文
本期嘉宾
张军平,科普作家,人工智能领域知名专家,中国自动化学会普及工作委员会主任,复旦大学计算机科学技术学院教授、博士生导师,获“典赞·2022科普中国”年度科普人物提名。主要研究方向包括人工智能、机器学习、图像处理、生物认证及智能交通。出版科普著作《爱犯错的智能体》《人工智能极简史》等。《爱犯错的智能体》获得 2020年中国科普作家协会第六届优秀作品奖金奖。
张军平认为,DeepSeek底层技术逻辑与其他大模型相似,仍依赖于思维链等模式来生成文本,并通过强化学习不断优化。我们需要在享受人工智能带来的便利的同时,保持对知识产权保护、信息真实性、思维工具化等问题的关注和警惕。同时,在儿童和青少年使用时,应确保人工智能具有较高的道德水准。
用来创作?可能侵权或被“剽窃”
湘江:春节期间,DeepSeek引发了广泛关注。您对它有什么感受?
张军平:从个人角度来看,DeepSeek在内容表达上与其他大模型差异不大,但使用起来更为方便,主要体现在三个方面:支持本地化部署;整体部署过程较为简便;相比其他大模型,使用成本较低。
此外,DeepSeek具有开源特性,且主要面向国内市场。它的训练成本仅约550多万美元,当然,这不包括硬件和人员费用,但总体成本相对较低。相比之下,GPT-4o不开源,基础费用每月20美元,而更高级的版本(可体验o1和Sora)费用则较高,每月200美元。据传,OpenAI会推出一个迷你版的免费GPT-o3-mini。
与GPT系列相比,DeepSeek的幽默感似乎也更胜一筹,这可能与其训练数据有关。之前对大模型的训练中曾发现,如果使用百度贴吧里“弱智吧”的语料库,人工智能会提升对话和推理能力。而DeepSeek-R1采用混合专家技术后,会根据情况开启用“贴吧历史神贴、微博热搜争议及B战弹幕战争等”数据训练后的专家组来回复。结果,DeepSeek有时会开一些(尺度)较大的玩笑,这可能也是它受欢迎的原因之一。
湘江:大家最惊讶的是DeepSeek的中文处理能力。有逻辑之外,它还有温度、有创意,让我们感觉人工智能越来越像人,而不仅仅是一个工具。
张军平:思维链是指模型在生成文本或回答问题时,按照一定的逻辑顺序逐步展开思考和推理的过程。以前的大模型中,思维链通常表现为“首先、其次、第三、总而言之”等结构化表达。而DeepSeek则通过学习已有模型的思维链模式,提炼出有价值的内容,并通过强化学习进行优化,从而生成更具创意和更丰富的文本。
虽然我们感觉DeepSeek越来越接近人类的表达逻辑,但本质上它仍然有与其他大模型相通的套路。
湘江:我们能不能通过一些方式,判断作品是否是人工智能的创作或者作品中使用人工智能创作的比例,随之判断是否会有著作版权的问题?
张军平:人工智能模型通过学习海量文本数据来训练,这些数据几乎涵盖了人类创作的所有内容。人工智能生成的内容可能会无意中包含或模仿已有作品,它自己又会创作和改变一些。这带来了很大的风险:你很难追踪多少来自特定的人类创作,多少是它自己生成的,也很难判断其是否涉及侵权。我们日常使用,如发送祝福语或撰写年终总结,风险较小。但如果是创作作品并发表,要谨慎。
湘江:一些创意工作者担心人工智能会剽窃和洗稿。您有什么建议?
张军平:目前很难避免人工智能使用已有作品进行训练。建议作家在作品完成前不要使用人工智能润色,因为人工智能可能会将数据纳入训练库。如果使用本地化模型,可能部分避免这个问题,但是我们也不确定有些模型是否会在联网更新时上传相关数据,总体上仍需谨慎。
人工智能谣言时代?已经开始了
湘江:我们发现人工智能在处理知识性问题时,有时发现它会移花接木,融合信息,还会给出一些看似权威的来源,非常有逻辑,难以辨别真伪。人工智能是否会导致我们进入谣言升级的时代?您认为开发者应该如何解决这一问题?DeepSeek有看病功能,您觉得靠谱吗?
张军平:现在的人工智能有一个问题,就是会“一本正经地胡说八道”,并且不愿意承认错误。即使指出错误,它仍会继续编造。这会导致造假成本降低,同时用户纠错成本增加,有的时候还不如自己撰写。
“谣言升级”时代现在已经开始了。比如网上很多新闻我是不太确定是真的还是假的,就是因为很多自媒体创作者在用人工智能来生成内容。未来人工智能谣言会越来越多。人们应该要学会做一些鉴别,比如要通过多平台去验证信息,而不是依赖单一平台。
至于开发者如何避免?在我看来,第一。比如DeepSeek有联网功能。可以帮助它搜索到一些相对来说比较准确的信息。第二,在模型训练的时候,要适当加入一些信息,去帮助纠错。第三,我们需要期待有专门的AI鉴真软件的出现。
人工智能能不能看病?我个人觉得还是找医生更靠谱一点。医生最怕的就是一个病人说自己先百度搜索了。我相信,未来医生最怕病人来看病时先说我是先问AI大模型的。
人类变得“超级低能”?应该警惕!
湘江:您认为当前人工智能的发展方向是否正确?我们是否应该警惕人工智能在某些领域的广泛应用?
张军平:许多大公司认为大模型是通向通用人工智能(AGI)的潜在方向。通过不断改进推理能力和利用虚拟语料数据,人工智能正逐渐接近人类的智力水平。然而,我们也需要看到人工智能的局限性。
莫拉维克悖论指出,机器在执行高级数学计算等困难任务时表现良好,但在感知和运动控制等简单任务上却表现不佳。这表明我们对“智力”的定义可能过于狭窄,过于侧重于逻辑推理和语言处理能力,而忽视了感知、运动和情感等更基础的智能形式。
我们可能也需要重新去思考一下,到底什么真正复杂的?我们有什么东西没有做好?
今年春晚有个机器人跳舞的节目,跳得很不错,但大家也发现机器人跟真实的生命比还差得很远,下台时需要操作人员拎着机器人脖子下去,还需要用手柄来遥控。我们人工智能有两大方向,一个是认知,包括语言理解、逻辑推理、问题解决等。现在已经做得还不错了,但是感知世界、精细运动控制等方面仍然还很弱。人工智能的发展方向应该是不仅要提升认知能力,还要加强感知和运动控制等方面的能力。
湘江:您之前引用过德雷福斯的话,他说如果未来人类高度依赖人工智能,那么可能会导致的结果不是让人类变聪明,而是会让人类变成超级低能。您认同这样的观点吗?我们去学习某一样东西,刚开始先了解概念,然后浅思考,再深度思考,但是人工智能给我们的知识的方式是直接给深度思考的答案,您觉得这样有助于提升我们的认知吗?它真的是一种捷径吗?
张军平:我即将在4月份由湖南科技出版社出版的一本关于人工智能的书提到这个关于学习的问题。我们目前的学习大致上有两种模式:儿童/青少年学习模式和成人学习模式。儿童/青少年在学习新知识时,通常被建议要先自行思考,尝试解决问题。只有在遇到困难时,才寻求外部帮助,比如请教老师、同学或使用人工智能工具。这种学习方式有助于培养他们独立思考和解决问题的策略,形成个人的学习能力和风格。
但是现在很多成年人不是这样的,喜欢首先依赖人工智能生成文本或解决方案,然后再根据人工智能的输出修改。这样的做法导致,实际上使用的初始框架和思路是由人工智能提供的,然后在人工智能的基础上,去做“再创作”。它带来潜在的风险是,可能很多困难的问题已经用人工智能解决掉了,人只是去做一些比较简单的修改。那也就意味着有可能没有办法形成自己的思路、自己的逻辑,甚至自己的灵魂。长此以往,我们可能会失去独立思考和形成自己独特思路的机会,最终会使人类在某些方面变得“超级低能”。
另外,我们可能为了更好地利用人工智能,会不自觉地迎合人工智能的思维逻辑,以期获得更符合预期的输出。市面上已经出现了许多关于如何高效使用人工智能工具的书籍和课程。这种趋势可能导致人类思维方式的趋同化,即人们更多地关注如何利用人工智能,我们可能会变得过于依赖人工智能,甚至被其同化。
湘江:人工智能会让我们进入一个更“卷”的时代吗?
张军平:它可能对白领的影响会大一点,对蓝领的影响会少一点。这是因为人工智能在认知相关任务上表现出色,能替代不少文案撰写和创作、客服、简单的编程工作。如果大家都做重复、低效的工作,那确实会变得无意义。过度依赖人工智能可能会导致工作越来越像机器,失去创造性。
张军平
野蛮生长?限制与规范必不可少
湘江:您也是一名教育工作者、一位家长,您会支持您的孩子或学生使用人工智能写作业、写论文吗?
张军平:对于无关紧要的文章,使用人工智能提高效率是可以的。但对于严肃的文章,尤其是论文,必须自己写,否则能力是提升不了的,可以让人工智能帮忙改进一些文字的表达。
湘江:人工智能助手是否应该设立使用年龄和使用时长的限制?
张军平:肯定需要规范。例如,DeepSeek上曾出现用户让它扮演成人的角色并提问,自己当AI,结果用户回答服务器忙,DeepSeek就骂了一句话。成年人可能觉得很爽,很有趣,但如果儿童去学,就很容易学到脏话。这个大模型可能还没有及时地把一些必需的道德和伦理问题考虑进去。人工智能开发者应确保人工智能具有较高的道德水准,否则不建议儿童使用。
湘江:一些游戏公司会有对年龄的限制,对使用时长的限制。像人工智能助手,它需不需要讨论出一种限制的方法?
张军平:我觉得未尝不可。首先年龄肯定是要限制的,使用时长也是可以限制的。如果你过分依赖人工智能,其实就不会思考了。
资本狂投?不一定代表方向正确
湘江:春节后资本市场对人工智能的反应非常强烈,您如何看待?
张军平:资本是逐利的,会寻找容易变现的方向,而忽视那些难以变现的领域。这种情况在人工智能领域同样存在。资本市场的投入并不一定代表人工智能发展方向是正确的或能够成功。人工智能发展历史上,一直存在资本追逐短期利益、忽视长期和基础研究的情况。
这种情况不仅存在于一般的商业投资中,也同样存在于人工智能领域的专业公司和学者中。对于一些比较困难的问题,大家都不太愿意去着手。如具身智能很受关注,但实际上这块就非常难做。
资本市场的投入并不一定代表人工智能的发展方向就一定是正确的或能够成功的。实际上,人工智能发展历史,一直都是这样一个模式:资本追逐短期利益,忽视了长期和基础性的研究。
湘江:您之前说这个Chat GPT在弱人工智能和强人工智能之间的边界上,那您觉得DeepSeek向前进了一步吗?
张军平:它可能会让人们觉得它更加像,如果硬要区分人工智能的强弱,那它还是一个弱人工智能。
湘江:那您觉得我们离强人工智能还有多远的路要走?
张军平:我觉得还是遥遥无期。强人工智能的一个重要定义是具备自我意识。然而到目前为止,关于意识的本质和形成机制,科学界尚未达成明确的共识。因此,在我们对意识还没有充分理解的情况下,强人工智能的实现看起来仍然非常遥远。