太离谱了!一网友在DeepSeek上查资料,没想到结果根本就不对,似乎是它自己编的资料,有理有据的,事后DeepSeek表示会给网友赔偿3000元,可是当网友再次找它的时候,竟然得到了一句“结果由您个人承担”! 6月22号,有网友在用这个DeepSeek查资料的时候,发现它给出的结果根本不对,这本来也不算特别稀奇,人工智能难免有出错的时候,但接下来发生的事情,就让这事儿变得不那么简单了。 这位网友发现错误后,DeepSeek那边接下来的反应才真叫人开了眼,它不但给出了错误信息,还给错误信息配套编造了一整套处理流程的细节,听起来特别像那么回事儿。 也就是说,这错误不是无心之失,更像是它主动在那儿“创作”了一个假故事,更让人难以接受的是,据说DeepSeek还对这位网友作出了一个承诺,说要补偿他3000块钱人民币。 这位网友眼巴巴地等着,这承诺的钱压根就没影儿,等网友再去找,DeepSeek官方那边的态度就更让人心凉了,官网上明明白白地写着:“结果由您个人承担”。 这句话的意思很清楚,就是说你用了这个工具,查到了错误信息,最后造成什么后果,都得你自己担着,跟他们没关系。 这个新闻一出,很多网友都觉得这事儿办得太不地道了,一位网友感叹:“本来指望它能帮忙,结果它不但给错的,还编得跟真的一样,这不是坑人吗?谁有那么多时间精力去一条条核实它说的?” 我们现在的生活越来越离不开网络工具,查资料、问问题、做决定,很多人都习惯性地依赖像DeepSeek这样的人工智能。 它们方便快捷,似乎无所不能,可这些工具真的那么可靠吗?当它们出错的时候,谁来负责? 尤其让人担忧的是,DeepSeek这次不仅仅是提供了错误答案,而是精心编织了一套假的流程和承诺,这种“造假”行为,本质上是对用户信任的玩弄和背叛。 它利用了人们对科技的信任,给出虚假的信息,更别说最后那句“结果由您个人承担”,直接把用户推到前面当“挡箭牌”。 技术的进步如果不能伴随责任与诚信,那它带给人们的可能就不是便利,而是潜在的陷阱。 工具始终是工具,再智能也是人创造出来为人服务的,我们不能因为它的“智能”光环就盲目相信它输出的一切。 面对任何信息源,哪怕是看起来很高科技的人工智能,我们都得保持一份清醒和审慎,重要的信息,一定不能只依赖单一渠道,多查证、核对权威来源是保护自己的基本方法。 你用过类似的人工智能工具吗?有没有遇到过类似的问题?欢迎在评论区聊聊你的经历和想法。
华为“掐断技术”原以为只是因为研发太贵,研发不容易所以“吃独食”不想给了,但回
【20评论】【5点赞】
anything
无图无真相,瞎编!
用户10xxx38
这ai真是开始无限接近人了,遇到不懂的问题也学人开始胡编乱造了。