新闻首页 / 关于“OpenAI”的主题

4

Meta开源1750亿参数GPT-3,打脸OpenAI?网友点评:GPT-4都要来了

新智元报道 编辑:LRS 【新智元导读】OpenAI 的 GPT-3 已发布两年,但还是只听说过,没见过。最近 Meta 复现了一遍 GPT-3,改名 OPT,把代码、权重、部署都开源了出来,并且还更环保,碳足迹仅为原版七分之一。 2020 年,OpenAI 放出了具有 1750 亿参数的预训练模型
0

OpenAI迎来一位美女CTO!她也是DALL·E的项目负责人

作者刘冰一 编辑陈彩娴 2022 年 5 月 5 日,OpenAI 对外宣布管理层职务变动。 其中,OpenAI 的联合创始人、原担任 CTO 的 Greg Brockman 将出任总裁,女科学家 Mira Murati 将接替 Greg Brockman 担任首席技术官(CTO)。 据介绍,Gre
0

带标签图像数据无限生成!GPT-3+DALL-E 2联合,或彻底解决CV界的「粮食危机」

新智元报道 编辑:LRS 【新智元导读】没有优质数据,再强大的模型也无法发挥作用。最近有研究人员发现,GPT-3+DALL-E 2 模型如果结合在一起,就能自动生成海量的带标签数据,可以用来扩增和平衡数据集、抵御对抗攻击等。 巧妇难为无米之炊,没有数据何以训模型? 根据 2022 年 Datagen
0

DALL-E 2的工作原理原来是这样!

CLIP+ 修改版 GLIDE 双管齐下。 作者 Ryan O'Connor 编译丨王玥 编辑陈彩娴 OpenAI 的模型 DALL-E 2 于本月初发布,刚一亮相,便在图像生成和图像处理领域卷起了新的风暴。 只需要给到寥寥几句文本提示,DALL-E 2 就可以按文本指示生成全新图像,甚至能将毫不相
0

多模态新王登基!OpenAI发布DALL·E 2,生成图像「指哪打哪」

新智元报道 编辑:LRS 【新智元导读】大艺术家重磅升级!最近 OpenAI 发布升级版 DALL·E 2,不仅分辨率提升了 4 倍,准确率更高,业务也更广了:除了生成图像,还能二次创作! 2021 年 1 月,OpenAI 放了一个大招:DALL-E 模型,让自然语言和图像成功牵手,输入一段不管多
3

DALL·E这波超进化,画质艺术感双飞升,还学会了无痕P图

鱼羊发自凹非寺 量子位公众号 QbitAI 把椅子上的萌犬P成猫猫,需要几步? 第一步,圈出狗狗。第二步,告诉 AI 你的需求。鼠标一点,齐活。 这位 AI P 图大师,其实是位老朋友——OpenAI 风靡全球的那位DALL·E。 现在,它刚刚完成了“2.0 超进化”。不仅新学了一手出神入化的P图绝
1

为了10亿美元,OpenAI不惜“出卖”了自己的灵魂?

GPT-3 和 Codex 背后的这家公司并不像他们宣传的那样开放。 一旦染上了铜臭味,最崇高的理想也会腐化堕落。 OpenAI 成立于 2015 年,是一家非营利性公司,其主旨是努力在安全的前提下创建通用人工智能(AGI)并让全人类共同受益。 “作为一个非营利组织,我们的目标是为每个人,而不是股东
0

AI可能初具意识?OpenAI首席科学家引争议,众大佬吵成一团

边策萧箫发自凹非寺 量子位公众号 QbitAI “今天的大型神经网络可能已经初具意识了。” OpenAI首席科学家Ilya Sutskever在 Twitter 上撂下这句话,可谓语不惊人死不休。 这下可让 AI 圈炸开了锅,人工智能、神经科学领域专家的回复滚滚而来。 反击最激烈的就是图灵奖得主、M
1

OpenAI首席科学家称AI或有点自主意识了,杨立昆怒怼

影视剧《西部世界》中 AI 角色 “现在的大型神经网络可能已经有了点自主意识。”近日,OpenAI 首席科学家 Ilya Sutskever 推文中的一句话激起千层浪。 关于 AI 能否有自主意识的大型争论在学术界已经停歇好久,但目前 Sutskever 的这则推文已经“引战”了学术界的多位大佬。其
0

DeepMind&OpenAI推出3D版安全强化学习模型,「跳崖」行为减至10%

行早发自凹非寺 量子位公众号 QbitAI DeepMind&OpenAI 这回联手展示了一手安全强化学习模型的好活。 他们把二维的安全 RL 模型 ReQueST 推向了更实用的 3D 场景中。 要知道 ReQueST 原来只是应用在导航任务,2D 赛车等二维任务中,从人类给出的安全轨迹中学习如何
0

OpenAI老板推特说相声:嘲笑创投圈「募6轮资还没到A轮」

新智元报道 编辑:袁榭、拉燕 创业孵化器大佬、OpenAI 现任 CEO Sam Altman,又在推特上开嘲讽了。 创业公司募资化缘一轮接一轮、同时迟迟不出货没进展的恶劣风气,现在已是妇孺皆知。虽然初创公司过去一般在筹集 A、B、C 等轮次之前先进行种子轮融资,但现在许多公司选择在其间进行额外的轮
0

OpenAI魔改大模型,参数减少100倍!13亿参数InstructGPT碾压GPT-3

新智元报道 编辑:好困拉燕 【新智元导读】文能吟诗一首,武能「打劫邻居」,只需百分之一的参数量,InstructGPT 包您满意。 2020 年 5 月,OpenAI 推出了参数量高达 1750 亿的语言预训练模型 GPT-3。 起手就把参数量拉到了千亿级别,并且还顺便刷新了一系列基准测试和 NLP
1

OpenAI又出一文本生成图像模型,参数比DALL·E少85亿,质量更逼真

OpenAI 刚刚推出了一个新的文本生成图像模型,名叫GLIDE。 相比今年年初诞生的大哥 DALL·E,它只有 35 亿参数(DALL·E有 120 亿)。 规模虽然小了,质量却不赖。 大家仔细看这效果,“使用计算器的刺猬”、“星空下的狐狸”、“彩色玻璃窗风格的熊猫吃竹子”、“太空升降舱蜡笔画”:
1

打破GANs“垄断”|OpenAI新研究:Diffusion Models 图文转换效果超越DALL-E

作者 莓酊、杏花 编辑青暮 以前,当我们想拥有一副图像时,首先会做的就是找专业画师,将我们对图画的要求逐一描述,画师再根据需求醉墨淋漓一番。但这种方式需要耗费一定的时间和人力成本,且成果不一定尽如人意。 如今,基于自然语言生成逼真图像的工具使我们能够以一种全新的方式轻松创建大量的高质量图像。使用自然
0

OpenAI 删除 GPT-3 候选名单,完全开放其 API

11 月 18 日,OpenAI 宣布删除 GPT-3 候选名单并完全开放其 API。随着用户安全保障措施取得重大进展,所有受支持国家/地区的开发人员都可以立即注册并使用 OpenAI API。 在过去的一年里,OpenAI 对其 API 的改进包括:遵循人类指导的指导系列模型,提供更真实的问题回答
0

Transformer大升级!谷歌、OpenAI联合推出分层模型,刷榜ImageNet32刷新SOTA

新智元报道 编辑:小咸鱼 【新智元导读】来自谷歌、OpenAI 和华沙大学的一个团队提出了一种新的用于语言建模的高效 Transformer 架构 Hourglass,在 ImageNet32 上达到新的 SOTA,证明拥有一个明确的分层结构是 Transformer 能有效处理长序列的关键。Hou
1

北大计算机博士生先于OpenAI发表预训练语言模型求解数学题论文,曾被顶会拒绝

新智元报道 来源:EMNLP 编辑:好困小咸鱼 【新智元导读】北大博士生沈剑豪同学一篇关于「用语言模型来解决数学应用题」的 EMNLP 投稿在综合评审时被认为不够重要,收录于 Findings 而没有被主会接收。有趣的是,OpenAI 的最新工作与该论文的方法不谋而合,并表示非常好用。 最近,EMN
0

OpenAI用GPT-3与小学生比数学,水平达90%!60亿小模型性能翻倍,追平1750亿大模型

新智元报道 来源:OpenAI 编辑:好困小咸鱼 近日,OpenAI 训练了一个系统可以解决小学数学问题。一个9-12 岁的小孩子在测试中得分为 60 分,而 OpenAI 的新方法在同样的问题上可以拿到 55 分,已经达到了人类小学生 90% 左右的水平! 还记得上小学时,被「口算天天练」里面的应
1

代码自动生成Codex 引发程序员恐慌?OpenAI:不信谣,不传谣

新智元报道 来源:IEEE 编辑:LRS 【新智元导读】随着程序员不断解放各个纯机械劳动的领域,现在失业的终于轮到程序员自己了吗?随着 OpenAI 发布了强力代码自动生成模型 Codex,这种问题始终困扰着大家,但程序员失业那天也许还要很远很远。 今年夏天,人工智能公司 OpenAI 发布了 Co
0

不用1750亿!OpenAI CEO放话:GPT-4参数量不增反减

新智元报道 来源:AIM 编辑:好困 【新智元导读】不要 100 万亿!也不要 10 万亿!更不要 1750 亿!GPT-4 参数量竟然比 GPT-3 还少! GPT-4 官宣? 近日,OpenAI 的首席执行官 Sam Altman 出席了「the AC10 online meetup」的线上 Q

最新评论