近年来,人工智能技术的发展迅速发展。新技术的发展可能涉及悖论和陷阱,同时促进社会进步。就在几天前,歌剧首席执行官Altman触发了这场现代模型回合的“第一枪”的Altman,他承认,高信任用户对Chatgpt感到惊讶,并指出不应将人工智能视为完全可靠的工具,因为它不是完美的,并且会产生虚假或错误的内容。这绝对将一锅冷水倒入了一个伟大模型的真实现代。近年来,所有的生活途径都采用了出色的模型来“努力工作”,并且各个行业的伟大模型接一个地出现了,倾向于“ 100种战争”。但是,过度依赖大型模型的缺点变得越来越明显,科莫经常是由大型模型幻觉引起的错误信息。从风险事件来看目前揭示的是,法律和医疗行业受到主要模型的幻觉困扰。外国媒体报道说,英国高等法院要求律师行业在今年6月采取紧急措施,以防止人工智能被滥用。由于人工智能可能产生的数十种错误案件的参考最近在法庭上提出了自己的表现。对于对卡塔尔国家银行的损害赔偿,原告提出的45个约会法学中的18个被证明是虚构的。此前,在得知航空事故的索赔后,纽约南区的联邦法院发现,原告的律师援引了Chatgpt在法律文件中产生的六个虚假司法管辖区,由原告的律师提供。这些虚拟案件包括案件的全名,案件编号和判断的意见,以及模仿S的管辖权风格美国的UPREME法院严重妨碍了司法程序。媒体启示还表明,美国卫生与公共服务部领导的有关儿童慢性疾病的报告。并由“ Make United States Health”委员会出版,有一个重要的任命错误。该报告没有关于超高食品,农药,处方药和小儿疫苗的研究。此外,链接失败,缺失作者,错误等,引用有很多错误。 《纽约时报》和《华盛顿邮报》的独立研究表明,作者可能已经使用了AI生成的AI。实际上,在今年3月,一项研究哥伦比亚大学的Inv Centerdigital News Stigration的主要搜索工具发现了其可靠性问题。该研究测试了八种搜索工具,并发现搜索工具特别不足以引用新闻,平均错误率为60%。在今年1月,世界Econo麦克风论坛(Mic Forum)发表了2025年的全球风险报告,表明“虚假错误和信息”倾向于2025年世界面临的五种主要风险之一。随着人工智能的不断发展,伊特尔(Iterand)和伊特纳(Iterand),一些较大的模型表现出违反人类指导的趋势。在今年6月举行的第7届Zhiyuan会议上,图灵·吉科·本霍奖(Turing Jiko Benjo Award)的获胜者透露,在一些新版本被新版本替换为新版本之前,一些新的调查被秘密地集成到了系统的新版本中。“自我保护”。人类在6月发表的一项研究还表明,包括OpenAI的GPT-4.1和Google的Gemini在内的16个大型模型显示,人类“绘画黑人”,以防止它们在模拟实验中被关闭。其中,由人类开发的Claude Opus 4的恐怖率与96%相同。听说这些研究和风险事件引起了伟大的行业模式。作为应用程序方案ntinue扩展,人工智能不仅用于生成文本,还用于生成软件,算法甚至决策,尤其是在制造业中。如果发生幻觉或违反人类的指示,则负面影响将是不可估量的。例如,智能制造开始使用人工智能来监视设备故障,帮助解决问题并帮助决策 - 策划如果您的AI此时正在幻觉,则可能导致事故。特别是,当前的主要模型是人形机器人技术。它与gee深入整合,较大的模型倾向于“幻想”或“自我优点”,因此物理机器人可以做出错误的行为。这比简单的语言输出错误更具风险。您不能忽略人工智能不能忽视的风险,但是“我们不能因粉笔而停止进食。”尽管人工智能技术仔细地使用,但有必要加强政府人工智能技术的ANCE,为未来做准备,并为安全应用人工智能建立技术和机构框架。如今,许多科学家和技术公司开始探索,相关国家的法律和法规也正在改善。将来,更安全,可控制的人工智能技术将成为促进任何生活,促进和发展新优质生产力的高质量发展的重要引擎。