草庐IT

MIT-BEVFusion

全部标签

大神回归学界:何恺明宣布加入 MIT

「作为一位FAIR研究科学家,我将于2024年加入麻省理工学院(MIT)电气工程与计算机科学系EECS担任教职。」AI领域的著名学者,ResNet发明人何恺明,最近在个人网站上宣布即将回归学界了。恺明甚至换上了全新的头像。在最近科技公司竞争大模型、AIGC新增长点的背景下,何恺明选择投身研究,做出了一个有引领性的选择。对此人们纷纷表示欢迎,「他的学生该有福了」:不知道未来是否会有年轻一代学会何恺明大道至简的研究风格。也有人表示,希望他在加入MIT之后仍可以和Meta保持紧密联系,因为即使贵如MIT也没有业界实验室那样丰富的GPU算力资源。感叹之外,人们纷纷开始预测何恺明未来的科研方向。从他个人

bevfusion单显卡训练/测试

很多人问这个问题,其实主要就是把分布式计算的stuff改一下就好了bevfusion采用torchpack这个很难用的包(其实也还好?hhh)来进行分布式计算我们在单显卡上之需要改这一部分就好tool/train:importargparseimportcopyimportosimportrandomimporttimeimportnumpyasnpimporttorchfrommmcvimportConfigfromtorchpackimportdistributedasdistfromtorchpack.environimportauto_set_run_dir,set_run_dirfr

MIT6.S081学习笔记--lec 1

引言操作系统的目标abstractH/W抽象化硬件multiplex多路复用isolation隔离性sharing共享(进程通信,数据共享)security/accesscontrol安全性/权限控制performance性能/内核开销rangeofapplications多应用场景操作系统概览操作系统应该提供的功能:1.多进程支持2.进程间隔离3.受控制的进程间通信xv6:一种在本课程中使用的类UNIX的教学操作系统,运行在RISC-V指令集处理器上,本课程中将使用QEMU模拟器代替kernel(内核):为运行的程序提供服务的一种特殊程序。每个运行着的程序叫做进程,每个进程的内存中存储指令、

「研究问题」写不明白,读者一脸懵!MIT博士手把手教你写「问题设定」:论文得能变代码才行

最近,MIT博士TomSilver发表了一篇博客,他认为有很多AI论文都缺少了「问题设定」(ProblemSetting)部分,或者是字数不够导致定义不够清晰,让读者在阅读论文后很难用代码复现出具体方法。博客中介绍了自己关于如何写好问题设定部分的心得,并给出了一些他认为写的比较好的论文样例以供参考学习。TomSilver是麻省理工学院计算机科学专业五年级博士生,本科毕业于哈佛大学计算机科学与数学专业,主要研究方向是智能机器人,如自动规划、程序合成等。问题设定里应该有什么?除纯理论研究、实验现象的实证、提出新基准数据等类型的研究外,大部分AI领域的论文中基本都包括三要素:提出了一种新的方法(ne

MIT李巨教授组发布「贾维斯助手CRESt」:实验科学家秒变钢铁侠,全自动化实验+主动学习

人工智能以及自主实验目前主要由Python等语言编写,但并非所有实验科学工作者都擅长这类编程语言,在真实世界实验中的影响力还是比较有限。不过,基于OpenAI最近发布的ChatGPTAPI函数调用功能[1],现有的技术已经足够支撑打造一个曾经只能在钢铁侠电影中看到的贾维斯智能助手。图片近日,MIT李巨教授组开发了一个实验科学家的人工智能助手CRESt(CopilotforReal-worldExperimentalScientist),其后端是用ChatGPT作为核心串联起:1.真实世界的机械臂进行自动化实验2.本地或网上专业的材料数据库3.优化材料配方的主动学习算法视频地址:https://

MIT打造实验科学家的大模型助手,语音聊天就能开展实验

目前,人工智能以及自主实验室主要由Python等语言编写,然而,并非所有实验科学工作者都擅长使用这类编程语言,因而其在真实世界实验中的影响力还是比较有限。最近,基于OpenAI发布的ChatGPTAPI函数调用功能,打造一个曾经只能在钢铁侠电影中看到的贾维斯智能助手已成为了可能。近日,来自MIT李巨教授团队开发了一个专为实验科学家量身打造的人工智能助手CRESt(CopilotforReal-worldExperimentalScientist),后端是用ChatGPT作为核心串联起来的,其具有以下特点:(1)可以调用真实世界的机械臂进行自动化实验,(2)自主查找本地或网上专业的材料数据库,(

Mit6.824 lab1全解析(推导历程+代码)

0.前言mit6.824分布式系统课程主页lab1是第一次作业,本菜鸡用了好几天独立完成,经过一次改版优化了数据结构和解决任务元数据并发环境下的datarace问题,建议大家做之前有自己独立的思考,有很多可行方案都能完成任务。比如看到有的小伙伴采用master(coordinator)轮询slave(worker)进行交互,我是用slave定时发送请求触发master懒执行大部分任务(后面会聊到原因)。也有的小伙伴用队列增删加锁实现并发安全,本人用的golang自带的channel作为任务队列。不得不感叹人家本科生就有机会学这么有意思的课程,听说lab2更酸爽,后面会接着去冲塔。总之,集中一段

Mit6.824 lab1全解析(推导历程+代码)

0.前言mit6.824分布式系统课程主页lab1是第一次作业,本菜鸡用了好几天独立完成,经过一次改版优化了数据结构和解决任务元数据并发环境下的datarace问题,建议大家做之前有自己独立的思考,有很多可行方案都能完成任务。比如看到有的小伙伴采用master(coordinator)轮询slave(worker)进行交互,我是用slave定时发送请求触发master懒执行大部分任务(后面会聊到原因)。也有的小伙伴用队列增删加锁实现并发安全,本人用的golang自带的channel作为任务队列。不得不感叹人家本科生就有机会学这么有意思的课程,听说lab2更酸爽,后面会接着去冲塔。总之,集中一段

MIT韩松创业两年被英伟达收购!3位联创都是清华校友,核心技术在256KB内存训练AI

股价暴涨185%,市值突破1万亿美元。要说今年AI圈谁是最大赢家,相信英伟达肯定在列。虽然已经赢麻,但英伟达还是不甘于只做GPU扛把子,现在又瞄准了另一个市场。这一次的目标是边缘计算芯片。据Theinformation披露,今年2月,英伟达已秘密收购人工智能初创公司OmniML。图片OmniML是一家专注于专注于边缘AI计算的初创公司,MIT韩松是联合创始人之一。图片虽然今年1月,OmniML才宣布与英特尔建立战略合作伙伴关系,但也不耽误英伟达2月立马入局搞收割收购。目前,OmniML官方LinkedIn账号已显示归属英伟达,且在谷歌搜索官方网址https://omniml.ai/,点击后也是

0代码训练GPT-5?MIT微软证实GPT-4涌现自我纠错能力,智能体循环根据反馈让代码迭代!

我们都知道,大模型具有自省能力,可以对写出的代码进行自我纠错。这种自我修复背后的机制,究竟是怎样运作的?对代码为什么是错误的,模型在多大程度上能提供准确反馈?近日,MIT和微软的学者发现,在GPT-4和GPT-3.5之中,只有GPT-4表现出了有效的自修复。并且,GPT-4甚至还能对GPT-3.5生成的程序提供反馈。图片论文地址:https://arxiv.org/pdf/2306.09896.pdf英伟达科学家JimFan强烈推荐了这项研究。在他看来,即使是最专业的人类程序员也无法一次性正确编写程序。他们需要查看执行结果,推理出问题所在,给出修复措施,反复尝试。这是一个智能体循环:根据环境反