微软新投资!谷歌PaLM2发布;HuggingFace代理;微软Bing插件;UBI解放劳动力|Weekly Summary
微软完成对Builder.AI的领投
Builder.AI与微软合作推动软件开发的民主化。此次合作包括微软对Builder.AI的股权投资,预计将加速Builder.AI的使命,赋予全球企业在无需技术专业知识的情况下构建软件的能力。
HuggingFace代理
代理是可以使用工具的语言模型。这些工具是数字化的,就像计算器或其他 AI 模型一样。HuggingFace有一个界面,可让您轻松快速地使用代理。它们提供了一组精选的模型,适用于许多任务。最近发布的Starcoder也大大提高了代理的可用性。
Google 发布MusicLM
Google 今天发布了MusicLM,这是一种新的实验性 AI 工具,可以将文本描述变成音乐。MusicLM可在网络,Android或iOS上的AI Test Kitchen应用程序中使用,允许用户输入提示,例如“晚宴的深情爵士乐”或“创建催眠的工业技术声音”,并让该工具创建歌曲的多个版本。
Bard 升级到 PaLM 2语言模型
Google 正在通过多语言支持、Google Docs 和 Gmail 集成以及视觉搜索等附加功能来提高其 AI 聊天机器人 Bard 的能力,同时还使其在全球范围内可用。Bard现在升级到Google 新的PaLM 2语言模型,将提供更好的响应,更好的编码帮助,包括调试,以及将来使用AI生成视觉效果的能力,使其与OpenAI的ChatGPT和微软的Bing聊天机器人等竞争对手保持竞争力。
微软的Copilot正在获得更多功能
微软正在扩大其Microsoft 365 Copilot的预览访问,这是一款基于OpenAI的GPT-4的数字助理,可在Microsoft 365应用程序和服务中提供AI驱动的功能。这家科技巨头还宣布了一种新的索引工具,可以让Copilot更准确地报告公司内部数据,以及微软白板,Outlook和PowerPoint等应用程序的一些新的Copilot功能。
Meta 开源多感官 AI 模型
Meta 宣布了一个新的开源 AI 模型,该模型将多个数据流链接在一起,包括文本、音频、视觉数据、温度和运动读数。
Claude 的宪法
Anthropic用宪法AI方法训练了他们的语言模型Claude,为语言模型提供了由一系列来源(包括联合国人权宣言)得出的一系列宪法原则确定的显式值,而不是由RLHF输入确定的隐含值。
将基础模型变成聊天助手
Star Coder是来自大代码项目的优秀新模型,可以编写86种不同的编程语言,该研究探讨了如何提示模型参与对话,如何使用聊天标记语言,甚至如何调整这些模型。
IBM 推出 Watsonx AI 平台
IBM周二推出了Watsonx,这是一个新的人工智能和数据平台,旨在帮助公司将人工智能整合到他们的业务中。
谷歌宣布PaLM 2
CNBC了解到, AI 将成为谷歌周三年度开发者大会的中心主题,因为该公司计划宣布一系列生成式 AI 更新,包括推出通用大语言模型(LLM)。
UBI会把我们从 AI 中拯救出来吗?
本文探讨了全民基本收入(UBI)作为解决 AI 和自动化造成的失业问题的潜力。它讨论了关于UBI的各种观点,包括其潜在好处,挑战以及围绕其实施的持续辩论。作者还研究了随着 AI 继续重塑劳动力市场,解决收入不平等和工作未来的必要性。
ChatGPT将改变教育,而不是摧毁它
本文深入探讨了教师如何认为 ChatGPT 将增强教育。
OpenAI 不会对客户数据进行训练
OpenAI将停止使用客户的API数据来训练其AI模型。
Khan Academy GPT:Khanmingo
Fast Company报道称,非营利组织Khan Academy正在试点一个名为“Khanmigo”的GPT版本。这个由AI驱动的工具旨在通过提供个性化反馈、回答问题和提供各种学科的解释来帮助学生学习。Khan Academy的目标是通过利用GPT等AI技术,使教育更具可访问性和吸引力。通过将AI纳入其平台,Khan Academy希望增强学习体验,帮助全球学生克服教育挑战。
SlackGPT
TechCrunch报道了Slack的最新更新,重点是将人工智能整合到用户体验的核心中。这些更新旨在通过利用AI驱动的功能来帮助用户更有效地管理工作量,从而提高生产力。这可能包括任务优先级确定、智能建议和改进的搜索功能。通过将AI整合到其平台中,Slack展示了其致力于利用先进技术来改善用户体验和优化人们在工作场所中协作方式的承诺。
Google正在努力将Bard带到Pixel手机上
Google正在准备让其Bard AI在Pixel手机和平板电脑上更容易访问,首先推出一个专为该公司设备设计的即将推出的主屏幕小部件。
使用算法增强语言模型以实现卓越性能
最近的研究表明,将算法整合到大型预训练语言模型(LLM)中可以显着提高其功能,而无需微调。证据支持的问答示例表明,与标准基线相比,提高了6.4%,这表明这种创新,具有成本效益的方法的潜在优势。
使用大型语言模型构建负担得起的业务
这批 deeplearning.ai 新闻稿探讨了如何使用大型语言模型 (LLM)(如 GPT-3.5-turbo)成为自动化任务或生成内容的经济高效的解决方案。它强调LLM可以生成足够的文本,以低至0.08美元的价格吸引用户一小时,这使得它们在许多任务中比人力便宜得多,并且当生成的内容被大量受众消费时,成本效益进一步提高。
使用扩散模型探索数据增强的力量和潜力
本文系统地评估了从扩散模型生成图像的方法及其对下游任务中数据增强的好处。研究表明,针对目标数据的个性化扩散模型是有效的,但通过简单的最近邻检索程序单独使用扩散模型的训练数据可以提高下游性能,突出了扩散模型在数据增强中的潜力和局限性。
没有注意力的预训练(GitHub Repo)
注意力是语言模型对单词执行计算的一种方式。这是相当昂贵的。如果我们可以使用一维卷积状态空间模型进行BERT训练会怎样?事实证明,它的表现非常好,所有代码、权重等都可以在 Jax 中找到。
Chain-Of-Thought-Hub (GitHub Repo)
Chain-of-Thought-Hub通过思维链提示对大型语言模型的复杂推理能力进行基准测试。
LLM Chain (GitHub Repo)
LLM Chain是一个强大的防锈箱,用于在大型语言模型中构建链,允许您汇总文本并完成复杂的任务。
一个嵌入空间来统治它们
AI中的嵌入是计算机可以操作的数据的表示形式。例如,OpenAI 中的剪辑模型会为文本和图像生成嵌入。这意味着您可以为图像及其描述获取一个嵌入。这项工作将其提升到一个新的水平,并为许多不同的模态生成嵌入,从而实现多模态学习。
语言模型可以解释其他语言模型中的神经元
神经网络中的神经元根据不同的任务“激活”。有时它们用于检测图像中的边缘或单词中的字母。但是,它们通常很难解释。事实证明,我们可以使用大型语言模型来为神经元找到有趣的解释。
InternChat:增强与聊天机器人交互的新视觉框架
InternChat(iChat)是一种将强大的聊天机器人(如ChatGPT)与指向动作等非语言提示相结合的工具,允许用户直接操作图像或视频。通过在语言中添加手势,iChat使与聊天机器人的通信更加高效和准确,特别是对于涉及复杂视觉场景的任务,使其成为未来交互系统的有前途的发展。
使用联合指令调整增强语言模型
联邦指令调优(FedIT)通过从许多不同的设备数据中学习而不侵犯隐私来训练强大的语言模型,如ChatGPT和GPT-4。这使得模型在各种情况下更好地理解和自然响应,研究人员还创建了一个工具“Shepherd”,以帮助其他人轻松使用这种方法。
FrugalGPT:利用LLM的具有成本效益的方法
该研究考察了与使用流行的语言模型API如GPT-4,ChatGPT和J1-Jumbo相关的高成本,并提出了降低这些成本的三种策略:快速适应,LLM近似和LLM级联。该研究引入了FrugalGPT,这是LLM级联策略的有效应用,可以以一小部分成本匹配顶级语言模型的性能,甚至可以提高其准确性。
SUR-适配器:文本到图像模型的升级
这项研究引入了一种称为SUR适配器的新方法,以帮助称为扩散模型的计算机程序将简单的描述转化为详细的图像。通过教授这些模型更好地理解故事并使用超过57,000个样本的新数据集,研究人员使模型更好地从简单的描述中创建高质量的图像。
AutoPR
修复由 ChatGPT 提供支持的 AI 生成的拉取请求的问题。
具有梯度下降的学习决策树
决策树是一种基于数据做出决策的 AI ,但目前创建这些树的方法有时可能给我们带来不完美的结果。本文讨论了一种使用梯度下降的新方法,该方法有助于我们构建更好的决策树,并为AI需要对事物进行分类的任务获得更准确的结果。
使用属性撰写本地化的对象
组合推理通过组合对象及其特征来帮助我们理解复杂的视觉效果,但当前的 AI 模型很难解决这个问题。研究人员创建了一个名为Cola的基准来测试和改进这些AI模型,发现轻量级多模态适配器可以帮助模型更好地推理图像和语言。
以新颖的注意力机制加强网页理解
网页为 AI 任务提供了大量信息,但它们还没有充分发挥其潜力。新的维基百科网页套件(WikiWeb2M)通过引入200万页和特殊关注机制来帮助研究多模式网页理解,该机制提高了生成描述,总结部分和创建上下文图像标题等任务的性能。
RasaGPT (GitHub Repo)
RasaGPT是第一个建立在Rasa和Langchain之上的聊天机器人平台。它是 Rasa 和 Telegram 的样板代码和参考实现,利用 Langchain 等 LLM 库进行索引、检索和上下文注入。
MLC LLM (GitHub Repo)
MLC LLM 是一种通用解决方案,允许将任何语言模型本地部署在各种硬件后端和本机应用程序上,并为每个人提供一个高效的框架,以进一步优化自己用例的模型性能。
PandasAI (GitHub Repo)
Pandas AI 是一个 Python 库,它为 Pandas 添加了生成 AI 功能,Pandas 是流行的数据分析和操作工具。
GPT-4-32K 即将推出
GPT-4-32k 似乎很快就会到来。
ChatGPT 由这些承包商提供支持,每小时 15 美元
NBC新闻文章深入探讨了OpenAI的ChatGPT背后的影子劳动力的作用。这支队伍由负责完善和维护 AI 系统的承包商组成。本文阐明了 ChatGPT 等 AI 模型的开发和运行所涉及的人类努力,因为承包商会审查和评估潜在的输出以训练 AI 模型。尽管是开发过程的重要组成部分,但与全职员工相比,这些承包商通常处于幕后,并且不太受认可。
OpenAI的监管问题才刚刚开始
The Verge讨论了OpenAI在遵守欧盟针对ChatGPT的通用数据保护条例(GDPR)方面面临的挑战。意大利数据保护局最近质疑在GDPR下使用 AI 生成的内容,导致人们担心 AI 公司应该如何在欧盟市场开展业务。文章强调了平衡 AI 创新与确保用户隐私和数据保护的重要性,因为GDPR合规性对于在欧盟运营的公司变得越来越重要。
将《了不起的盖茨比》融入上下文
语言模型将文本查询作为输入和输出文本响应。查询和输出的长度称为上下文。语言模型的上下文长度有限(ChatGPT 是 8k 个“单词”)。随着最近一些很酷的算法变化,MosaicML发布了一个可以用65k“单词”操作的模型。这足以将整部小说《了不起的盖茨比》放在上下文中,并让模特写出尾声。
Google 正在添加 AI ,使搜索更加风度翩翩
Google 正在改变其呈现搜索结果的方式,以结合与 AI 的对话,以及更多的短视频和社交媒体帖子,这与网站结果列表背道而驰,而网站结果列表使其成为几十年来占主导地位的搜索引擎。
StarCoder发布
TechCrunch报道了Hugging Face和ServiceNow之间的合作,结果是一个免费的代码生成AI模型StarCoder。该模型旨在通过自动生成代码来帮助开发人员,从而减少编写代码所需的时间和精力。该合作伙伴关系旨在简化软件开发流程,使其对开发人员更加高效,同时保持生成代码的质量。此次发布标志着将AI技术应用于各行各业以提高生产力和促进创新的趋势不断增长。
VPGTrans:跨LLM传输视觉提示生成器
创建新的视觉语言AI模型可能非常昂贵和耗时,但研究人员找到了一种通过从现有模型中传输部分来降低成本的方法。这种名为VPGTrans的新方法速度更快,使用的数据更少,更容易创建功能强大的AI模型而不会破产。
Replit的开放式pass@20代码模型(HuggingFace)
最近在mosaic ML平台上引起了很多关注。这个模型尺寸惊人地小,但功能非常强大,是该平台的一个构件。它是由前Google程序综合专家在转到Replit后训练的。它在标准的HumanEval基准测试中与更大的模型具有竞争性能。
RLHF由最佳人士解释
这篇文章详细介绍了当今人工智能领域最热门的主题之一,RLHF代表人类反馈强化学习。这是一种使语言模型表达不确定性并改变它生成文本的方式,使其更符合人类要求的方法。这很棘手,难以做到正确。
使用压缩或注释以获得最佳小型模型
当你想训练一个语言模型时,通常越大越好。但当你想在生产中使用它时,更小的模型更胜一筹。为了让一个较小的模型匹配一个较大的模型的性能,我们可以压缩模型或注释更多的数据以进一步调整较小的模型。尽管压缩模型(例如,删除权重)相当昂贵,但它通常比试图训练较小的模型更具成本效益。
使用字体颜色来控制图像生成
在这项研究中,研究人员调查了富文本中的各种格式化元素,如字体大小、颜色、样式和脚注,用于从文本生成图像。他们的方法允许轻松控制本地样式、准确的颜色创建以及在处理长文本提示时提供附加信息。通过利用富文本的这些方面,研究人员旨在有效、高效地将文本转化为图像的过程。
从笔记本电脑中实现ML可观测性(GitHub Repo)
数据漂移、模型漂移、模型性能或人类偏好!这些都对部署实际系统非常重要,但很难正确处理。这是一个很好的工具,可以帮助解决这个问题。它是一种基于笔记本的方式,用于跟踪生产中模型和数据的不同指标。
DeepDoctection(GitHub Repo)
DeepDoctection是一个Python库,使用深度学习模型编排文档提取和文档布局分析任务。
Databerry (GitHub Repo)
Databerry提供了一个用户友好的解决方案,可以在不需要任何技术知识的情况下快速设置一个语义搜索系统,用于在个人数据上进行搜索。
PrivateGPT (GitHub Repo)
PrivateGPT 允许您使用 GPT 的强大功能私下与您的文档进行交互。
Raycast Pro
Raycast Pro 是专业人士的生产力工具,具有 AI、云同步、自定义主题、无限剪贴板历史记录、Pro API 等功能,即将推出。
FeatheryAI
Feathery的AI表单助手可让您在几秒钟内创建高质量的表单。在我们强大的编辑器中完善最终体验。
Metering.ai
还在手动统计产品使用数据?切换到 metering.ai,只需点击 3 次即可将数百万行使用数据转换为 Stripe 发票。这意味着不再有计费错误,也不再有手动繁琐的工作。
AI聊天助手可以改善有关分歧话题的对话
我们生活在一个有点分裂的世界,很难在促进理解的地方进行有意义的对话。有趣的是,如果你有一个 AI 聊天机器人关于困难话题的中间对话 - 双方都报告结果和理解有所改善。
ZipIT,合并针对不同任务训练的模型
假设我们有两个不同模型的相同架构在不同的任务上训练。是否可以将它们合并到一个在两个任务上都运行良好的模型中?当前的方法(如重新盆栽或模型汤)不起作用,因为存在不同的任务特定功能。这项新工作提出了两步过程的前进方向,比以前的算法提高了60%。
文本到3D与shap-e
OpenAI一直在悄悄地研究文本到3D,有几个版本。这项新工作是该研究领域的有趣补充。它在标准对象或具有一些构图思想的对象中工作得很好。该模型还可以从2D图像创建3D对象,尽管这似乎不太有效。
HiPool:使用图形神经网络对长文档进行建模
对于自然语言处理 (NLP) 模型来说,对长文本块进行编码是一项艰巨的任务。这项研究通过使用图形和新的注意力机制来改进该过程,这有助于模型理解句子之间的关系并在较长的序列上表现得更好。
提高 AI 常识理解
今天的语言模型在常识知识方面仍然会犯愚蠢的错误。VERA是一种新模型,它根据常识估计陈述的合理性,有助于过滤掉不正确的信息并提高现实世界环境中的性能。
Otter:具有上下文指令调优的多模态模型
这项研究引入了一种称为MIMIC-IT的新方法,用于改善像Otter这样的模型在不同情况下理解和遵循指令的方式,包括图像和文本。通过使这些模型更易于访问,研究人员可以更轻松地使用它们来创建更好的AI系统。
Kadoa
Kadoa 使用 AI 来探索、提取和转换 Web 数据。节省创建和维护网络爬虫的时间。使用 Kadoa 轻松提取您需要的数据。
AudioPen
AudioPen将把您的非结构化语音笔记转换为清晰的摘要文本。使用它可以在一小部分时间内写消息、电子邮件、博客文章等。
LLM对个人的杠杆作用
本文讨论了LLM(大语言模型)技术对个人用户的潜力。作者探讨了各种用例,例如帮助创意写作、生成代码和回答有关各种主题的问题。本文还讨论了潜在的缺点,包括对 AI 生成的错误信息、道德问题的担忧,以及由于其资源密集型性质而使LLM技术可供个人使用。
Sam Altman 将在国会作证
OpenAI首席 CEO Sam Altman 将于下周首次向国会作证,这是华盛顿政策制定者正在加强对 AI 审查的最新迹象,因为硅谷的技术蓬勃发展。
Google 搜索的 AI 接管现在开始
本文重点介绍了Google 使用 AI 生成的体验来改善搜索结果的计划。Google 正在努力将 AI 集成到其搜索引擎中,为用户创建更加个性化和相关的结果。这种方法旨在为用户提供更丰富、更具交互性的体验,包括 AI 生成的图像、视频和文本等功能。然而,这篇文章也强调了潜在的挑战,例如维护用户隐私和解决 AI 生成内容中的偏见。
Wendy's 测试 AI 聊天机器人,接受您的得来速订单
Wendy's正在与谷歌合作创建一个人工智能聊天机器人,可以在其得来速接受订单。这家快餐连锁店计划在六月将其第一家“Wendy's FreshAI”带到俄亥俄州哥伦布市的一家餐厅。
Spotify已经清除了数以万计的AI生成的歌曲
据报道,Spotify已经从生成AI公司Boomy那里撤下了数万首曲目。据说它已经删除了初创公司系统创作的歌曲的百分之七,这突显了人工智能生成的内容在音乐流媒体平台上的迅速扩散。
五角大楼可以使用ChatGPT吗?
Intercept深入探讨了五角大楼使用ChatGPT以及 AI 的军事使用所产生的道德问题,特别是因为OpenAI明确禁止军方使用其技术。
中国在 AI 监管方面领先于美国
Axios的文章讨论了中国在试图引领全球 AI 竞赛时为建立 AI 监管框架所做的努力。它考察了中国政府在鼓励 AI 创新与解决潜在风险和道德问题之间取得平衡的尝试。文章还强调了 AI 监管中国际合作和协调的重要性,同时承认弥合不同国家对数据隐私、监控和技术治理的看法所面临的挑战。
美国忘记了IBM Watson。ChatGPT是下一个吗?
这篇文章有趣地回顾了IBM的Watson是下一个大型AI事物的日子,然后深入探讨了ChatGPT是否会遇到同样无关紧要的命运的问题。
迈向生物学基础模型
大型预训练模型在文本中令人兴奋,我们可以为生物学中的单细胞任务构建一个模型吗?scGPT 是一种擅长不同生物学相关任务的变压器。它是开放的,您可以下载重量。
AI 最大的风险是控制它们的公司
Fast Company的文章采访了领先的AI研究员兼AI Now Institute的创始人Meredith Whittaker。惠特克强调, AI 的真正风险不是来自意识或超级智能,而是来自控制这些技术的公司。她认为, AI 深深植根于社会和经济体系中,因此,其影响在很大程度上取决于开发和部署 AI 的公司的动机和优先事项。文章强调了考虑 AI 运作的权力动态和社会政治背景的重要性,以便理解和减轻潜在风险。
AI 非常擅长设计mRNA疫苗
优化mRNA疫苗中发现的基因序列的 AI 工具可以帮助制造具有更高效力和稳定性的疫苗,可以在全球范围内部署。
Google将停止分享AI研究
由于发布了ChatGPT,Google已经命令其AI研究人员停止在产品发布之前发布他们的工作成果。
Google泄露的文件:“我们不会赢,但OpenAI也不会赢”
目前尚不清楚这是否是真实的文件,但其传达的信息是真实的。开源模型正在迅速赶上闭源模型,并“吃掉”它们的市场份额。那么这些大型机构该如何应对?一个想法是成为生态系统的领导者,类似于Android或Pytorch。无论如何,这是社区为自己构建实用工具的强有力例证。
白宫敦促科技公司CEO限制AI风险
白宫在上周四敦促硅谷首席执行官限制人工智能的风险,告诉他们他们有“道义上的”义务保证产品的安全,这是政府迄今为止最显而易见的AI监管努力。