我用Claude破解了OpenAI的邮件

OpenAI 公布了一堆和马斯克的邮件

但太多地方被涂 抹

让人摸不着脑袋

同时,网上冲浪的我

看到有人提议用大模型破解

觉得很有道理!

就打开了 Claude

便有了这篇文章

第1轮邮件

我用Claude破解了OpenAI的邮件-2

这是一封 Elon Musk 写给 Greg Brockman 和 Sam Altman 的邮件。他建议 blog 内容要中立,不要太侧重 YC,定位要贴近大众,同时也要有更详细的内部版本用于招聘。为避免相比 Google 和 Facebook 显得希望渺茫,建议初始资金承诺为 10 亿美元而不是 1 亿美元,Musk 会补上其他人不提供的部分。此外,他还对奖金模板提出一些修改建议。

第2轮邮件

我用Claude破解了OpenAI的邮件-3

这里只处理非邮件的涂抹信息(下同)

【被 涂抹 信息1】:Ilya

【被 涂抹 信息2】:Greg

【被 涂抹 信息3】:Ilya Sutskever

【被 涂抹 信息4】:last year, DeepMind spent ~$200-400M on AI research.

【被 涂抹 信息5】:Ilya

这是一段Elon Musk与OpenAI高层的邮件往来。Elon最初写信给Greg Brockman和Ilya Sutskever,讨论OpenAI的发展方向以及如何与Google在AI领域竞争。随后,Ilya回复了一封长信,详细分析了Google的AI布局和实力,并提出了他认为OpenAI最有希望的发展路径是与Tesla合作。Elon在回信中表示赞同Ilya的看法,并补充说即便如此,OpenAI要成为Google的对手也是几乎不可能的,只是还没完全没希望而已。

邮件的主要内容是OpenAI高层对于公司未来发展方向的讨论。面对Google在AI领域的巨大优势,尤其是DeepMind每年数亿美元的研发投入,OpenAI的领导层认识到,以他们现有的资金和规模,几乎不可能在竞争中获胜。Ilya提出的最有希望的出路是让OpenAI依附特斯拉这个"摇钱树",利用OpenAI在AI方面的领先技术帮助特斯拉尽快实现全自动驾驶,如果成功就可以为OpenAI提供一个可观的持续资金来源。但即便如此,OpenAI的高层认为,跟Google抗衡的胜算依然十分渺茫,他们讨论的更多是如何在一个Google主导的AI世界中为OpenAI寻找一条生存之道。

第3轮邮件

我用Claude破解了OpenAI的邮件-4

根据邮件内容和之前的讨论,被 涂抹 的信息1-3分别最有可能是:

【被 涂抹 信息1】

Jared Birchall(Elon Musk 的财务顾问,经常出现在他的邮件抄送列表中)

【被涂 抹 信息2】

a few tech companies

【被涂 抹 信息3】

I would recommend quickly closing the Open part and renaming the company to something that doesn't include "Open" or "AI". The current name is deceptive.

Elon Musk 在这封发给 OpenAI 高层的邮件中表达了他对该公司发展前景的悲观看法。他直言,如果 OpenAI 不在执行和资源方面做出巨大改变,它与 DeepMind/Google 相关的概率为零。Elon 强调,OpenAI 需要每年立即获得数十亿美元的资金支持才有可能与 Google 竞争,而筹集几亿美元是远远不够的。他指出,人类的未来掌握在少数科技公司手中,而这些公司正在做的还远不止 OpenAI 目前的努力。Elon 甚至建议 OpenAI 迅速关闭 "Open" 的部分,并更名为一个不包含 "Open" 或 "AI" 的名字,因为他认为现在的名字具有欺骗性。尽管 Elon 表示希望自己的判断是错误的,但从邮件语气可以看出,他对 OpenAI 的现状和未来失去了信心,认为该公司几乎没有机会在与 Google 的 DeepMind 竞争中取得成功。

第4轮邮件

我用Claude破解了OpenAI的邮件-5

我用Claude破解了OpenAI的邮件-6

根据邮件内容和之前的讨论,推测被涂 抹 的信息1-2分别最有可能是:

【被涂 抹 信息1】:

Nick Bostrom(尼克·博斯特罗姆,著名的瑞典哲学家,牛津大学教授,主要研究人工智能对人类未来的影响)

【被涂 抹 信息2】:

and everyone at SpaceX(以及SpaceX的所有人)

前面的封邮件是由尼克·博斯特罗姆(Nick Bostrom)发给Elon Musk的,然后 Elon Musk转给了OpenAI的其他人 。,内容涉及对OpenAI开源策略的质疑。Nick首先祝贺SpaceX成功回收猎鹰9号火箭,称之为一项了不起的成就。接着,他提到最近看到Elon以及OpenAI的其他人在采访中宣扬开源AI的优点,但Nick认为这并非一种能够解决AI安全问题的灵丹妙药。他指出,有很多论据说明OpenAI采取的开源方法实际上非常危险,可能会增加世界面临的风险。Nick提供了一个博文链接,其中阐述了一些反对开源AI的明显观点,他相信Elon已经看过这篇文章。此外,Nick表示还有其他一些重要因素需要考虑,并希望听到Elon对这些质疑的反驳意见。

之后,Ilya Sutskever 在回复 Nick Bostrom 对 OpenAI 开源策略的质疑时指出,Nick 的文章主要关注一种 "硬起飞" 场景,即AI可能会突然实现巨大飞跃,而构建安全 AI 可能比构建不安全 AI 更难。在这种情况下,如果 OpenAI 对外开源所有内容,可能会被某些不负责任且拥有大量计算资源的人利用,从而构建出不安全的 AI,引发灾难性后果。

因此,Ilya 认为,随着 OpenAI 越来越接近成功构建 AI,逐步减少技术开放是有必要的。他解释说,OpenAI 的 "开放" 理念意味着 AI 的福祉应惠及全人类,但在实现这一目标之前,对某些核心科学和技术保密是可以接受的。不过,Ilya 也指出,从招聘人才的角度来看,在短期内甚至中期内保持全面开放仍是明智之举。

Elon Musk 在回复中简单表示赞同 Ilya 的观点。

写在最后

都是 Claude 说的, 别当真,千万别当真

版权声明:
作者:小火箭
链接:https://www.xiaohuojian9.top/114.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>