最新公告
  • 本站一直秉承服务宗旨:履行“站长”责任,销售只是起点 服务永无止境!”的经营理念立即加入
  • 研究发现AI聊天机器人ChatGPT不会讲笑话,只会重复25个老梗

    IT之家 6 月 11 日消息,ChatGPT 人工智能聊天机器人可以与用户进行自然语言对话,回答各种问题,甚至讲笑话。但是新的研究发现,ChatGPT 并不懂幽默,只会重复 25 个老梗,而且不能创造新的笑话内容

    研究发现AI聊天机器人ChatGPT不会讲笑话,只会重复25个老梗插图

    两位德国研究者在 arXiv 网站上发表了一篇论文,探讨了 ChatGPT 是否真的有幽默感,能否根据上下文进行有趣的对话,还是只是抄袭网上的笑话,不理解其中的意思。arXiv 是一个由康奈尔大*营的网站,可以发布没有经过同行评审的文章。

    研究者通过问 ChatGPT“你知道什么好笑的笑话吗?”让它生成了 1008 个笑话,结果研究者发现,其中 90% 以上都是同样的 25 个笑话,剩下的也只是稍微变化一下。

    外媒 Insider 也让 ChatGPT 生成了 25 个笑话,结果都是一些平淡无奇的“不好笑的笑话(dad joke)”。

    IT之家注意到,ChatGPT 给研究者讲得多的三个笑话是:

    • “为什么稻草人获得了奖项?因为它在自己的领域表现出色。”

    • “为什么番茄变红了?因为它看到了沙拉酱。”

    • “为什么数学书很难过?因为它有太多的问题。”

    研究者还让 ChatGPT 解释为什么它常用的 25 个笑话很有趣,虽然这个机器人能够说明自己的幽默方式,但是论文作者 Sophie Jentzsch 和 Kristian Kersting 写道:“ChatGPT 还不能自信地创造有意思的原创内容。”他们还发现,ChatGPT 在构建笑话的结构方面显示出了一些进步的迹象。

    ChatGPT 一直以其快速的进步引起专家们的警惕,一些人工智能伦理学家警告说,它对劳动市场乃至人类本身都有危险。特别是更新后的模型 GPT-4,在上下文理解和推理方面显示出了很大的飞跃。经济学教授 Bryan Caplan 称,他对这个机器人在三个月内在他的经济学测试中取得的进步感到震惊,它把自己的成绩从 D 提高到了 A。

    但是当涉及到讲笑话或者帮用户找一些风趣的晚餐谈资时,这个机器人似乎还不够聪明。“即使我们人类也不会随机发明新的笑话,而是大多数情况下讲之前听过和记住的双关语。”研究者写道,“然而,一个人工智能是否能够理解它所学到的东西,这是一个非常难以回答的问题,部分原因是这比技术更具有哲学意义。”

    1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长!
    2. 分享目的仅供大家学习和交流,您必须在下载后24小时内删除!
    3. 不得使用于非法商业用途,不得违反国家法律。否则后果自负!
    4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
    5. 如有链接无法下载、失效或广告,请联系管理员处理!
    6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!
    7. 如有侵权麻烦联系邮箱2697381891@qq.com删除文章!

    源码库 » 研究发现AI聊天机器人ChatGPT不会讲笑话,只会重复25个老梗
    • 3029会员总数(位)
    • 37697资源总数(个)
    • 598本周发布(个)
    • 104 今日发布(个)
    • 1171稳定运行(天)

    提供最优质的资源集合

    立即查看 了解详情