消息称 Bard 聊天机器人实用性遭 Google 内部人士质疑
据彭博社报导
,Google 和 Discord 一起约请自家 AI 谈天机器人 Bard 的忠诚用户,建立一个谈天室。其间,Bard 的产品司理、设计师和工程师在谈天室内评论了 AI 的有用性和实用性,但也有一些人开端提出质疑。Discord 上 Bard 社区的两名参与者向彭博社共享了 7 月-10 月期间谈天室内的评论细节。Bard 的高档产品司理 Dominik Rabiej 在评论中表明,自己“不信任”大言语模型生成的回复答案,并主张人们仅在“构思”“脑筋风暴”等方面运用 Bard。Rabiej 还表明,将 Bard 用于编程“也是一个不错的挑选”—— 由于人们不可避免地要验证代码是否有用。
此外,Rabiej 还在本月强调了 Bard 中新增的“仔细检查回复”按钮的重要性。据称,该功用会用橙色来杰出显现“或许不正确的”内容。他还重申,Bard 并无法真实了解自己获取的文本,仅仅依据用户的提示用更多文本进行回复。“请记住,Bard 和任何大模型相同都是生成式的 —— 它不是在帮你查资料或做总结,而是在生成文本。”
这名产品司理曾在 7 月份的一次谈天中直言道,除非(用户自己)能独立验证,不然不要信任大言语模型的输出成果。“咱们也想让它到达你们的预期,但它还没有。”
另一位产品司理 Warkentin 也在评论中写道,“人性化的改善至关重要,只要这样 Bard 才干成为一款合适所有人的产品。不然,用户就没有才能来评判产品的功用,我以为这将是一个巨大的过错。”“咱们不需要在象牙塔中的产品,而是所有人都能受用的产品!”
依据此前报导,Google 本年 7 月扩展布置 Bard AI 东西时,参加了“共享对话链接”的功用。用户能够将他和 Bard 的对话以网页链接方式导出,共享给他人,让他人持续和 Bard 打开对话。
而 X 渠道一名剖析参谋 Gagan Ghotra 发现了这一缝隙,Google 过错将部分用户共享的链接,作为索引参加查找成果中,然后导致了相关灵敏信息外泄。
Gagan Ghotra 据此正告用户与不要在和 Bard 对话时共享任何“私密性内容”,不然相关信息或许外泄。