草庐IT

比特币终局:或将等于人类全部剩余的价值总和!

原创 |刘教链草长莺飞二月天,拂堤杨柳醉春烟。还有不到一周,便是农历二月天。这加密市场,也真的是一片草长莺飞,春意盎然。不久前,比特币怒发冲冠,急破6万刀重要关口。2月29日教链文章赞曰《比特币始本无名,待其有名天下惊》。破关口就是破圈,便会引发圈外媒体的传播,增量关注和资金便开始被大量吸引。趁比特币稍事喘息,山寨便开始争奇斗艳,竞相驰骋。《突然:山寨若狂蜂!》教链3月2日写道。加密牛市味道顿出。但比特币似乎并不愿意给山寨太多出风头的机会,于是今日再次向上发动,破65k,续创新高,继续领涨!恰如2.29教链内参《急冲前高已近应验,敢问前路又在何方?》末尾所讨论的:「如果从呼吸理论的角度看,现在

世界模拟器才是AGI终局,12态势预测!首席专家万字长文专业解读Sora里程碑

这几天反复看Sora的技术报告,以及各方对Sora的技术分析。基本三个角度:惊呼强大功能,分析Sora(实现)大法,评估巨大冲击。冲击方面,主要关注点在于对影视、短视频、娱乐等领域的影响。但是,Sora改变AI认知方式,开启走向「世界模拟器」的史诗级的漫漫征途,才是未来暴风眼,真正的重点。而世界模拟器,是远比AGI、具身智能、元宇宙更炸裂的智能未来。Sora技术报告最有价值、最语焉不详、最容易产生不同理解的一句话是:「通过扩大视频生成模型的规模,我们有望构建出能够模拟物理世界的通用模拟器,这无疑是一条极具前景的发展道路」。而本文所述世界模拟器,与Sora目前自述以及业内理解,可能不太一样。很显

RAG+GPT-4 Turbo让模型性能飙升!更长上下文不是终局,「大海捞针」实验成本仅4%

RAG+GPT-4,4%的成本,便可拥有卓越的性能。这是最新的「大海捞针」实验得出的结论。在产品中使用LLM的下一阶段,重点是让它们生成的响应/回复更加「超前高速化」(hyper-specific)。也就是LLM需要按照不同的使用情况,针对数据集、用户、使用案例,甚至包括针对特定调用,生成完全不同的响应。这通常是通过3种基本技术中的一种来实现的:1.上下文窗口填充(Context-windowstuffing)2.RAG(检索增强生成)3.微调正如实践者所知,与炒作相反(「在您的数据上训练的GPT......!」),主要是使用上下文窗口填充和RAG(而不是微调)来专门化LLM的响应。作者Ata

谷歌DeepMind力证:GPT-4终局是人类智慧总和!Transformer模型无法超越训练数据进行泛化

Transformer模型是否能够超越预训练数据范围,泛化出新的认知和能力,一直是学界争议已久的问题。最近谷歌DeepMind的3位研究研究人员认为,要求模型在超出预训练数据范围之外泛化出解决新问题的能力,几乎是不可能的。LLM的终局就是人类智慧总和?论文地址:https://arxiv.org/abs/2311.00871JimFan转发论文后评论说,这明确说明了训练数据对于模型性能的重要性,所以数据质量对于LLM来说实在是太重要了。研究人员在论文中专注于研究预训练过程的一个特定方面——预训练中使用的数据——并研究它如何影响最终Transformer模型的少样本学习能力。研究人员使用一组来作