GPT 3 BELLETRON GA KALAH KALAH! META BARU GA NGARUH SAMA VIVIAN | BELLETRON ERA VS MBR DELPHYNE – GAME 2 June 18, 2021Woman Star League
Mu Li你好 我想了解一下chatgpt的一些技术细节 我不是技术专业的 几年前因为工作的原因接触过一些人工智能的项目 但是主要还是集中在计算机视觉领域 当时一些从业者和我说过自然语言处理进展很慢 你视频里提到近两年NLP领域有了一定的突破 对于这方面我很感兴趣 但是因为本身并不是这方面的专业 所以知道的少 理解能力也有限 视频我还没有看完 我在想 视频看完以后 有没有可能我整理一些问题 然后联系到你 向你请教?
多谢讲解。我虽然算是比较了解这一块的,但是也只是对transformer和BERT有所深入,对于GPT一直都是只知道一个大概。尤其是GPT的Zero-shot,one-shot和Few-shot居然是在不重新训练模型的情况下,通过改变输入序列来实现这一点真的是非常的佩服。必须支持
请问沐神,GPT如何处理数字?尤其是浮点数。数字是infinite,感觉很难直接加入token。以前传统NLP模型就用一个[NUM]代表数字,但就肯定无法处理数学加减运算。不知道GPT的数学运算是如何形成的。
计算机视觉领先采用深度学习是必然的,小孩都是先看图后说话。大家自行体会。
字幕中多次出现的“标号”是什么意思呢
Mu Li你好 我想了解一下chatgpt的一些技术细节 我不是技术专业的 几年前因为工作的原因接触过一些人工智能的项目 但是主要还是集中在计算机视觉领域 当时一些从业者和我说过自然语言处理进展很慢 你视频里提到近两年NLP领域有了一定的突破 对于这方面我很感兴趣 但是因为本身并不是这方面的专业 所以知道的少 理解能力也有限 视频我还没有看完 我在想 视频看完以后 有没有可能我整理一些问题 然后联系到你 向你请教?
感谢讲解,深入浅出,通俗易懂。在ChatGPT大火的现在再回味有更多的理解了。
generative pre-trained model应该翻译成生成式预训练模型?
飞机也是大力出奇迹,不由得让人反思那些高深复杂的分析理论的意义在哪
多谢讲解。我虽然算是比较了解这一块的,但是也只是对transformer和BERT有所深入,对于GPT一直都是只知道一个大概。尤其是GPT的Zero-shot,one-shot和Few-shot居然是在不重新训练模型的情况下,通过改变输入序列来实现这一点真的是非常的佩服。必须支持
这片tech report很多细节语焉不详,大概率和公司的技术保密有关吧,以前读IBM早期的database论文,也碰到过类似问题。不一定是写作水平的问题,而是不能写
一个是插值,另一个是外推
非常精彩的解读,感谢分享!
感谢老师的讲解 ,但对于gpt2的zeroshot的训练还是不太了解
感谢分享
感謝哥。神就是神
本人小白,看完您的视频,大概理解度为40%,氮仍然坚持看完。时至今天chatgpt火爆全网,您的视频仿佛让人看到了参天大树是怎么从小树苗成长起来的。
karma是业力,果报,中性词。好的业力是功德。
sure its great content, but how did it get into my recommendations, i don't even know chinese
很是惊讶,大佬这是一年前的视频了! 也就是说“GPT”这名称一年前就有了。一年前居然都没听说过,自己太孤陋寡闻!
希望你可以继续做下去,太棒了
本地玩gpt需要什么gpu
谢谢李博, 希望有机会能开个ESL的课程,特别是数学方面的讲解
最近的更新太慢了
那么把Bert 模型往大了做,会不会有类似的效果或者甚至更好呢
小白问个问题:既然prompt engineering不涉及对原有模型的新training, 那 one-shot, few-shot中的example input有何意义呢?
Reddit -> 天涯论坛
太棒了!感谢!
reddit刚出的时候叫做英文版百度贴吧,现在强调数字安全中文环境已经变成信息荒漠了
感谢分享 非常有帮助
generative 翻译成通用性的还是生成式的 更恰当呢
GPT/Transformer are very inefficient. GPT's decisions are not easily interpretable (1:25:25).
不是 phi 是 theta 😂
再准备一点钱
老板 讲的太好了吧 能不能把领域稍微广一点?比如除了各大tech厂都是ads赚钱,可以讲讲ads这边的system的paper。
2倍速刚刚好。速率低了睡着了。
21:00 encoder decoder
有个不懂得地方就是,子任务不做微调,那子任务训练有啥用?是不是可以理解可以不要子任务?
所以人类是在互相较劲的过程中,研发了打败人类的技术😂
请问沐神,GPT如何处理数字?尤其是浮点数。数字是infinite,感觉很难直接加入token。以前传统NLP模型就用一个[NUM]代表数字,但就肯定无法处理数学加减运算。不知道GPT的数学运算是如何形成的。
感谢老师的讲解
你好,这篇论文可以放一下链接吗?
经典中的经典,膜拜木神
prompt: 翻译下面单词’受益匪浅'
非常好的讲解 大神就是大神