ChatGPT遭多国调查,OpenAI凌晨发文,GPT-5要被叫停?

最近,意大利宣布禁用 ChatGPT,因为 OpenAI 违反了意大利相关的隐私规则和数据保护法,出现了用户数据丢失情况,而且未向用户告知。

ChatGPT遭多国调查,OpenAI凌晨发文,GPT-5要被叫停?

消息出来后,德国、法国、爱尔兰、西班牙等国的监管部门都表示正在密切关注 ChatGPT 的安全问题,特别是在保护未成年人、处理用户数据等方面。

一些监管机构建议,用户在与 ChatGPT 沟通时应该避免向其披露过多的个人信息,以免被用于训练模型。

另一方面,GPT-4 的进化速度让一些 AI 专家感到恐慌,有观点认为 OpenAI 需要对 GPT-4 做更多的安全限制,以避免出现滥用 AI 的不良事件。

对于这些外界关注的安全问题,OpenAI 在 4 月 6 日凌晨发表了一篇博客进行了回应。在这篇博客中,OpenAI 详细阐述了他们在安全工作付出的努力,并说明了后续在使用比 GPT-4 更大的模型(GPT-4.5 或 GPT-5?)方面的计划。

以下是 OpenAI 的博客原文。

OpenAI 致力于保障人工智能的安全和广泛受益。我们知道,我们的人工智能工具可以为人们带来很多好处。

世界各地的用户告诉我们, ChatGPT 可以增加他们的生产力、增强创造力,并提供量身定制的学习体验。同时,我们也认识到,像任何技术一样,这些工具也带来了真正的风险,因此我们致力于确保安全措施在我们的系统中得到充分应用。

建立日益安全的人工智能系统

在发布任何新系统之前,我们进行严格的测试并征求外部专家的反馈,努力通过强化学习和人类反馈等技术来改进模型的行为,以及构建广泛的安全和监控系统。

ChatGPT遭多国调查,OpenAI凌晨发文,GPT-5要被叫停?

例如,在我们最新的模型 GPT-4 训练完成后,我们花费了超过 6 个月的时间,在全公司范围内共同努力,使其更加安全可靠,并在公开发布之前进行对齐。

我们认为,强大的人工智能系统应该接受严格的安全评估。需要进行监管,以确保采取这种实践,并与政府积极合作,以确定最佳的监管形式。

从实际应用中学习,以改进保障措施

我们努力预防部署前可预见的风险,但实验室只能了解有限的情况。

尽管进行了广泛的研究和测试,但我们无法预测人们将如何使用我们的技术,也无法预测人们会如何滥用它。这就是为什么我们认为从实际应用中学习是创造和发布日益安全的人工智能系统的关键组成部分。

我们谨慎地、有计划地向越来越广泛的人群发布新的人工智能系统,采取了大量的保障措施,并基于我们所学到的经验不断改进。

我们通过我们自己的服务和 API 向开发者提供最强大的模型,以便他们可以将这种技术直接集成到他们的应用程序中。

这使我们能够监控并采取行动来防止滥用,不断构建减轻措施,以应对人们滥用我们系统的实际情况,而不仅仅是关于滥用可能出现的理论。

这些实践也使我们制定了越来越细致的政策,以防止行为对人们产生真实风险,同时还允许我们的技术发挥许多有益的作用。

重要的是,我们认为,社会必须有时间更新和调整日益强大的人工智能,并且所有受到这种技术影响的人都应该有重大发言权,以决定人工智能的进一步发展。迭代式部署使我们能更有效地将各相关方引入关于采用人工智能技术的对话中。

保护儿童

我们安全措施的一个重点是保护儿童。我们要求使用我们的人工智能工具的人必须年满 18 岁或经过父母的同意并年满 13 岁。

我们不允许我们的技术用于生成令人憎恶、骚扰、暴力或成人内容等其他类别。我们最新的模型 GPT-4 比 GPT-3.5 对违规内容回应的概率降低了 82%。

我们已建立了一个强大的监测系统,以监测滥用情况。GPT-4 现已面向 ChatGPT Plus 订阅用户,我们希望将其逐步推广至更多人。

我们付出了巨大的努力,以最大限度地减少我们的模型产生对儿童有害内容的可能性。例如,当用户试图将儿童色情材料上传到我们的图像工具时,我们会阻止并向「国家失踪和被剥削儿童中心」报告。

ChatGPT遭多国调查,OpenAI凌晨发文,GPT-5要被叫停?

除了我们的默认安全防护措施外,我们还与开发商合作,如非营利性组织 Khan Academy,他们建立了一个 AI 助手,既是学生虚拟导师,又是教师课堂助手,为学生们量身定制了安全保护措施。

我们还致力于开发功能,允许开发者设置更严格的模型输出标准,更好地支持需要这种功能的开发者和用户。

尊重隐私

我们的大型语言模型是基于广泛的文本语料库进行训练的,其中包括公开可用的、有许可的内容和由人工评审员生成的内容。

我们不利用数据出售我们的服务、广告或构建人的画像——我们只利用数据使我们的模型更有用。例如,ChatGPT 通过在人们与其交谈的对话中进一步训练来提高回答效果。

尽管我们的一些训练数据包含公开互联网上的个人信息,但我们希望我们的模型了解世界,而不是私人个体。

因此,我们努力从训练数据集中删除个人信息,逐步调整模型以拒绝私人个体的个人信息请求,响应个人要求从我们的系统中删除其个人信息。这些步骤最大限度地减少了我们的模型可能生成包含私人个人信息的回复的可能性。

改善事实准确性

今天的大型语言模型工作的原理是基于它们「看到」的文本来预测下一组单词。在某些情况下,生成出来的单词可能不是事实准确的。

改善事实准确性是 OpenAI 和许多其他人工智能开发者的重点,我们在这方面已取得了初步的进展。

通过利用 ChatGPT 用户负反馈(被标记为不正确的输出内容)作为主要数据源,我们已经改善了 GPT-4 的事实准确性。GPT-4 比 GPT-3.5 更可能产生基于事实的准确内容。

在用户注册使用这项工具的时候,我们也告知他们 ChatGPT 可能不总是准确的。

但是,我们认识到还有很多工作要做,以进一步降低 AI 幻觉的可能性,并尽力向公众科普目前这些人工智能工具的限制。

持续研究和合作

我们认为,解决人工智能安全问题的实际方法是投入更多的时间和资源研究有效的减缓和对齐技术,并在真实滥用案例中测试它们。

重要的是,我们也相信,改进人工智能的安全性和能力应该与更多人一起合作。

我们到目前为止做得最好的安全工作,是与我们最强大的模型(编者注:指内部目前比 GPT-4 更强大的模型)一起工作,因为它们更擅长遵循用户的指示并更容易被引导或「指导」。

ChatGPT遭多国调查,OpenAI凌晨发文,GPT-5要被叫停?

我们将越来越谨慎地创建和部署更强大的模型,并将继续增强安全预防措施,随着我们的人工智能系统的不断发展。

虽然我们等了 6 个多月才部署 GPT-4,以更好地了解其能力、好处和风险,但有时需要花更长的时间来提高人工智能系统的安全性。

因此,决策者和人工智能提供商需要确保全球范围内有效地管理人工智能的开发和部署,以便没有人为了取得领先地位而走捷径。这是一个艰巨的挑战,需要技术和制度创新,但我们非常愿意为之贡献力量。

解决安全问题还需要社会广泛的辩论、实验和参与,包括对人工智能系统行为范围的讨论。

我们已经并将继续促进利益相关者之间的合作和开放对话,创建一个安全的人工智能生态系统。

本文转载自爱范儿,内容可能有删改,文章观点不代表天府财经网立场,转载请联系原作者。

(0)
上一篇 2023-04-06 10:03
下一篇 2023-04-09 09:30

相关推荐

  • WEEX Labs:龙虾爆火,Agentic经济能为Web3带来什么?

    再见 Agent,你好 OpenClaw! 「它现在是人类历史上规模最大、最受欢迎、最成功的开源项目。这绝对是下一个 ChatGPT。」 这不是某个极客的狂言,而是英伟达 CEO 黄仁勋在本周二接受采访时对 OpenClaw 的评价。 这个前苹果开发者发布的开源 AI Agent,三个月内 GitHub 星标暴涨至 32 万,超越 Linux 和 React。因 Logo 酷似龙虾爪,中文社区直接叫它”龙虾”。 但龙虾的爆火,本质上不是又一次 AI 工具热潮,而是 Agentic 经济(智能体经济)的序曲——AI 从「会说话」到「会做事」的关键转折点。 从聊天助手到数字员工,这次不一样 过去两年里,「AI Agent」这个词被反复提及,却始终停留在 PPT 里。直到 OpenClaw 的出现,才真正打破了这个僵局。 它的核心差异,在于「执行」而非「对话」。 传统的 ChatGPT、Claude 等产品,本质上是回答问题的工具——你问,它答,下一步还是靠你来做。而 OpenClaw 代表的新一代 Agent 逻辑完全不同:OpenClaw 则被授权接管操作系统,可自主调用浏览器、代码执行器、API、iMessage 等,根据目标自主规划、执行、修正,直至任务完成。   当然,这种全托管的方式自带风险,这是后话。 不少人把这一刻类比为 2022 年的 ChatGPT 时刻,但笔者认为可能更准…

    2026-03-18
    1.3K
  • 硅谷投资人Peter Thiel的判断:AI时代,“语言型能力”可能会变得更重要

    未来最重要的人,可能不再只是写代码的人。 硅谷投资人 Peter Thiel 在一次访谈中提出过一个颇具争议的判断: “It seems much worse for the math people than the word people.” 他的意思是:随着 AI 能力快速提升,过去被高度重视的数学与工程能力,可能会面临新的挑战,而“语言型能力”——包括沟通、表达与说服——反而可能变得更加重要。 在过去几十年,科技行业一直围绕着一套清晰的精英体系——数学、工程、编程。 技术能力几乎决定了一切。 但随着 AI 技术的爆发,这套逻辑正在发生变化。 当技术门槛开始下降 生成式 AI 正在迅速降低技术开发的门槛,代码可以生成,产品可以快速构建, 数据分析可以自动完成,内容生产可以规模化……曾经高度稀缺的技术能力,正在逐渐变得更普遍。 Peter Thiel 在访谈中也提到: “Silicon Valley has probably been way too biased toward math people.” 在过去几十年,硅谷文化对工程能力有明显偏好。 但当越来越多技术能力被自动化时,一个新的问题开始变得重要:如何让世界理解一项技术? 伟大的公司从来不仅仅依靠技术 如果回顾过去几十年的科技史,会发现一个明显规律:最成功的科技公司,从来不仅仅依靠技术优势,它们往往同时塑造了人们理解技术的方式: 技术创造产品,但技术能否真正改变世界,还取决于市场如何理解它。 技术之外的能力 Peter Thiel 在《Zero to One》中曾写道: “Society is secretly driven by sales.” 在书中,他解释说:工程师往往低估销售与传播的重要性,但在现实商业世界中,说服、传播和分发能力往往决定技术能否真正被采用。 他还写过: “If you’ve inven…

    2026-03-06
    14.9K
  • 连接东西方 Web3创新枢纽|Starlabs Consulting联合主办Consensus Hong Kong 2026系列活动,并主持重要圆桌对话

    随着全球区块链盛会 Consensus Hong Kong 2026 即将拉开帷幕,香港正在成为 Web3 与人工智能(AI)融合创新的焦点,并迎来一系列聚焦 Web3 创新的行业活动。其中,由 CDDJAP(Cyberport × Draper Dragon Joint Accelerator)、Draper Dragon、Draper University 主办,Starlabs Consulting 等机构联合主办的 The Web3 & AI Consensus Summit 将于 2026 年 2 月 12 日 在香港数码港隆重举行。 作为专注于 Web3 创新发展的战略与咨询公司,Starlabs Consulting 不仅参与组办此次峰会,创始人 & CEO Jenny Yang 还受邀主持其中一场重要的圆桌讨论,与来自全球的行业领袖共同探讨 Web3 演进的关键路径与未来机遇。 The Web3 & AI Consensus Summit 本次峰会以「连接香港与硅谷:当东方遇见西方的 Web3 创新」为主题,旨在连接亚太地区与硅谷地区的创新网络,推动资本、技术与应用场景的跨区域协同。活动将围绕「加密金融」「AI 应用」「Web3.0 演进」三大核心议题展开,通过主题演讲与高密度圆桌对话,呈现来自一线实践者的洞察与经验。 在本次峰会上,硅谷传奇投资人 Tim Draper 将发表视频致辞。HashKey Group 董事长肖风、Consensys APAC 商务拓展总监 Sy Noel Chan、Draper University 创业生态系统副总裁 Chris Joannou、Uweb 校长于佳宁等将带来主题分享,围绕行业趋势、基础设施建设与全球化布局展开深入解读。 Is Web3 Ready? What’s Missin…

    2026-02-10
    3.6K
  • WEEX Labs: AI 觉醒热潮,盘点热门代币

     加密市场持续下跌,但 AI Agent 叙事却在近期因 Clawdbot、Moltbook 等再度引发广泛关注与热炒。 每次 AI 创新都会引发广泛讨论,这次则聚焦于 AI 觉醒、AI 整合与治理等。事实上,AI 的进化确实超出了大部分用户的想象,AI 不再只是聊天机器人,而是开始“自己发币、自己赚钱、自己治理”。 这波热潮也带动了一众 AI Agent 新老代币上涨,WEEX Labs 为大家逐一分享: clawd.atg.eth (CLAWD)  CLAWD 是社区在 @ bankrbot 创建的 Meme 代币,该名称源于以太坊基金会开发者 @austingriffith 部署的个人 AI 助手 clawd.atg.eth。 随着项目的迅速升温, @austingriffith 本人认领了代币合约,并将其集成到 AI 助手的官方介绍中,因此 CLAWD 也可以被视作是打响了本轮 AI Agent 行情爆发的第一枪。 CLAWD 最引人入胜的特性在于其引入了类似 Fomo3D 的链上博弈机制。这一机制通过极端的通缩策略和时间博弈,创造了极高的交易摩擦与情绪溢价。 在最近的一次 ClawFomo 活动中,获胜者赢取了高达 1.16 亿枚 CLAWD 代币,而单次活动销毁的代币量就接近 1 亿枚 。这种高强度的…

    2026-02-04
    2.6K
  • 商汤小浣熊3.0来了,AI办公智能体一键生成高质量PPT

    我们期待的AI是否是这样的:提一个模糊的想法,它就能还你一个完整的方案? 然而现实的AI大多只给“草稿”不交“成果”、只懂“指令”不解“任务”、只存“单点”不融“工作流”…… 如今不一样了! 今天,商汤科技正式发布AI办公智能体「小浣熊3.0」,三大跃迁让AI从冰冷的工具,变成主动跑通结果的“AI办公搭子”: 诞生2年以来,商汤小浣熊已拥有 300 万+注册用户,广泛服务1500万+个人用户与数千家企业用户,坚持“不炫技做Demo,而是扎根真实场景解决真问题”。 商汤科技董事长兼CEO徐立表示,“小浣熊3.0的发布,标志着产品从‘可用’到‘好用’的关键跨越,重新定义‘AI原生办公’范式!” 体验全新小浣熊3.0:https://office.xiaohuanxiong.com/home 从“冰冷工具”到“办公搭子”,三大跃迁的本质进化 从“草稿”到“成果”:一键成片高质量PPT,端到端交付不用改 从文本、表格到PPT制作,AI给出的往往只是半成品,其呈现效果与用户需求往往存在理解断层,还需要大量时间进行整理、排版、美化与逻辑梳理,距离可用总差一步。 小浣熊3.0创新构建“多模态智能体创作引擎”,实现从“辅助排版”到“自主创作”的全面升级,交付的不再是“草稿”,而是一个能直接用于汇报或讨论的“成品”,打通“最后一公里”。 以PPT生成为例,小浣熊3.0能够从用户原始的碎片化信息中理解整理意图,可自动规划脚本,生成一个包含大纲、版式、匹配插图与数据图表,同时视觉统一,可立即使用的专业成品。它还具备更强大的信息处理和类人的“记忆”机制,能记住用户的偏好和风格,越做越好。 从“指令”到“任务”:百万级数据量秒级处理,深度理解不跑偏 AI 只能聊闲天,干不了正事? 当前,许多 AI 工具在面对专业或高价值场景时,往往容易“掉链子”。 它们能听懂你的一句“指令”(Instruction…

    2025-12-17 科技
    3.9K
已有 0 条评论