搞机器学习的妹子们,写出一本1200页的全栈技术手册!(限时公开下载)
优采云 发布时间: 2022-05-25 05:49搞机器学习的妹子们,写出一本1200页的全栈技术手册!(限时公开下载)
今天这篇文章不谈技术,给大家分享一些干货!首先来聊聊一个AI圈子里画风清奇的公众号夕小瑶的卖萌屋。公号的作者中不仅妹子居多,颜值能打,而且喜欢将学术研究和大厂业务上线中的收获与读者分享。
卖萌屋的作者们就读或毕业于北大、中科院、北邮、蒙特利尔大学MILA、墨尔本大学等*敏*感*词*的顶尖CS院校&实验室,在微软、百度、腾讯等大厂核心研究/业务团队从事搜索、推荐、NLP/CV相关的研究和业务落地,顶会收割机、上线狂魔、顶级赛事冠军、SSP offer收割机、知乎大V等只是ta们的部分标签。公众号主页点击「这是哪儿」了解更多ta们的故事(有照片哦)同样,这个公众号一直保持原创输出,高质量的文章整理成了一个 1200 页+的技术栈手册,内容从零基础到进阶,方向不限于:
数学基础
互联网算法岗求职篇
深度学习炼丹技巧篇
...
...
编程基础篇
手册内容截屏
下载方式
关注公号,后台回复「666」即可下载
手册内容展示
图文并茂
思维导图
机器学习
自然语言处理
论文解读
手册目录树
├──深度学习与炼丹技巧
│ ├──实践篇
│ │ ├──万万没想到,我的炼丹炉玩坏了
│ │ ├──分类问题后处理技巧CAN,近乎零成本获取效果提升
│ │ ├──模型训练太慢?显存不够用?这个算法让你的GPU老树开新花
│ │ ├──盘点我跳过的科研天坑,进坑就是半年白干
│ │ ├──BERT重计算:用22.5%的训练时间节省5倍的显存开销(附代码)
│ │ ├──算法工程师的效率神器——vim篇
│ │ ├──你的 GNN,可能 99% 的参数都是冗余的
│ │ ├──训练效率低?GPU利用率上不去?快来看看别人家的tricks吧~
│ │ ├──显存不够,如何训练大型神经网络?
│ │ ├──All in Linux:一个算法工程师的IDE断奶之路
│ │ ├──别再喊我调参侠!夕小瑶“科学炼丹”手册了解一下
│ │ ├──一训练就显存爆炸?Facebook 推出 8 比特优化器,两行代码拯救你的显存!
│ ├──基础篇
│ │ ├──深度解析LSTM神经网络的设计原理
│ │ ├──训练神经网络时如何确定batch的大小?
│ │ ├──你的模型真的陷入局部最优点了吗?
│ │ ├──不要再纠结卷积的公式啦!0公式深度解析全连接前馈网络与卷积神经网络
│ │ ├──从前馈到反馈:解析循环神经网络(RNN)及其tricks
│ ├──理论篇
│ │ ├──高效利用无标注数据:自监督学习简述
│ │ ├──抓住训练集中真正有用的样本,提升模型整体性能!
│ │ ├──我删了这些训练数据…模型反而表现更好了!?
│ │ ├──超硬核 ICML’21 _ 如何使自然语言生成提速五倍,且显存占用减低99%
│ │ ├──ICLR2020满分论文 - 为什么梯度裁剪能加速模型训练?
│ │ ├──打破情感分类准确率 80 分天花板!更加充分的知识图谱结合范式
│ │ ├──吴恩达发起新型竞赛范式!模型固定,只调数据?!
│ │ ├──如何提升*敏*感*词*Transformer的训练效果?Primer给出答案
│ │ ├──CMU & MILA & 谷歌 _ 三家巨头发布史上最干文本增强总结
│ │ ├──AdaX:一个比Adam更优秀,带”长期记忆“的优化器
│ │ ├──谷歌 _ 多任务学习,如何挑选有效的辅助任务?只需一个公式!
│ │ ├──ICLR2020──如何判断两个神经网络学到的知识是否一致
│ │ ├──硬核推导Google AdaFactor:一个省显存的宝藏优化器
│ │ ├──大模型炼丹无从下手?谷歌、OpenAI烧了几百万刀,总结出这些方法论…
│ │ ├──中文BERT上分新技巧,多粒度信息来帮忙
│ │ ├──一时学习一时爽,_持续学习_持续爽
│ │ ├──别让数据坑了你!用置信学习找出错误标注(附开源实现)
├──机器学习
│ ├──还在随缘炼丹?一文带你详尽了解机器学习模型可解释性的奥秘
│ ├──史上最萌最认真的机器学习-深度学习-模式识别入门指导手册-三-
│ ├──史上最萌最认真的机器学习-深度学习-模式识别入门指导手册-二-
│ ├──Allen AI提出MERLOT,视频理解领域新SOTA!
│ ├──AllenAI _ 用GPT-3帮助增建数据,NLI任务直接提升十个点!?
│ ├──数据缺失、混乱、重复怎么办?最全数据清洗指南让你所向披靡
│ ├──强化学习扫盲贴:从Q-learning到DQN
│ ├──AdaX:一个比Adam更优秀,带”长期记忆“的优化器
│ ├──2202年了,“小样本”还值得卷吗?
│ ├──史上最萌最认真的机器学习-深度学习-模式识别入门指导手册-一-
│ ├──硬核推导Google AdaFactor:一个省显存的宝藏优化器
│ ├──经典统计机器学习模型
│ │ ├──从逻辑回归到受限玻尔兹曼机
│ │ ├──深度前馈网络与Xavier初始化原理
│ │ ├──从点到线:逻辑回归到条件随机场
│ │ ├──LightGBM最强解析,从算法原理到代码实现~
│ │ ├──逻辑回归与朴素贝叶斯的战争
│ │ ├──从逻辑回归到最大熵模型
│ │ ├──解开玻尔兹曼机的封印会发生什么?
│ │ ├──朴素贝叶斯与拣鱼的故事
│ │ ├──机器学习系列-强填EM算法在理论与工程之间的鸿沟(上)
│ │ ├──机器学习系列-强填EM算法在理论与工程之间的鸿沟(下)
│ │ ├──深入解析GBDT二分类算法(附代码实现)
│ ├──如何优雅而时髦的解决不均衡分类问题
│ ├──一时学习一时爽,_持续学习_持续爽
│ ├──以4%参数量比肩GPT-3!Deepmind 发布检索型 LM,或将成为 LM 发展新趋势!?
│ ├──数学基础
│ │ ├──线性代数应该这样讲-四--奇异值分解与主成分分析
│ │ ├──线性代数应该这样讲(二)
│ │ ├──线性代数应该这样讲-三--向量2范数与模型泛化
│ │ ├──线性代数应该这样讲(一)
│ ├──Meta AI 发布 data2vec!统一模态的新里程碑!
│ ├──别让数据坑了你!用置信学习找出错误标注(附开源实现)
├──自然语言处理
│ ├──基础知识
│ │ ├──史上最可爱的关系抽取指南?从一条规则到十个开源项目
│ │ ├──斯坦福大学最甜网剧:知识图谱CS520面向大众开放啦!
│ │ ├──中文分词的古今中外,你想知道的都在这里
│ │ ├──如何优雅地编码文本中的位置信息?三种positioanl encoding方法简述的副本
│ │ ├──Step-by-step-to-Transformer:深入解析工作原理(以Pytorch机器翻译为例)
│ │ ├──文本分类问题不需要ResNet?小夕解析DPCNN设计原理(上)
│ │ ├──NLP的游戏规则从此改写?从word2vec,-ELMo到BERT
│ │ ├──搜索引擎核心技术与算法-——-倒排索引初体验
│ │ ├──文本分类问题不需要ResNet?小夕解析DPCNN设计原理(下)
│ │ ├──如何打造高质量的NLP数据集
│ │ ├──文本分类有哪些论文中很少提及却对性能有重要影响的tricks?
│ │ ├──那些击溃了所有NLP系统的样本
│ │ ├──NLP最佳入门与提升路线
│ │ ├──45个小众而实用的NLP开源字典和工具
│ │ ├──NLP-Subword三大算法原理:BPE、WordPiece、ULM
│ ├──子方向综述
│ │ ├──基于知识图谱的篇章标签生成综述
│ │ ├──NLP中的少样本困境问题探究
│ │ ├──多轮对话与检索式聊天机器人(chatbot)综述
│ │ ├──后BERT时代:15个预训练模型对比分析与关键点探究
│ │ ├──中文分词的古今中外,你想知道的都在这里
│ │ ├──对话系统的设计艺术
│ │ ├──超一流 - 从XLNet的多流机制看最新预训练模型的研究进展
│ │ ├──从零构建知识图谱
│ │ ├──限定域文本语料的短语挖掘综述
│ │ ├──预训练模型关键问题梳理与面试必备高频FAQ
│ │ ├──一文跟进Prompt进展!综述+15篇最新论文逐一梳理
│ │ ├──MSRA-万字综述 直击多模态文档理解
│ │ ├──NLP数据增强方法综述:EDA、BT、MixMatch、UDA
│ │ ├──NLP进入预训练模型时代:从word2vec,ELMo到BERT
│ │ ├──智能问答系统与机器阅读理解分方向综述
│ │ ├──文本生成评价指标的进化与推翻
│ │ ├──如何提高NLP模型鲁棒性和泛化能力?对抗训练论文综述
│ │ ├──工业界求解NER问题的12条黄金法则
│ │ ├──任务完成型对话之对话状态追踪DST综述
│ │ ├──写了一篇关于 NLP 综述的综述!
│ │ ├──文本匹配相关方向打卡点总结
│ │ ├──搜索中的Query理解及应用
│ ├──20篇NLP综述.zip
│ ├──学术前沿
│ │ ├──Prompt tuning新工作,五个参数解决下游任务 fine-tuning
│ │ ├──万能的BERT连文本纠错也不放过
│ │ ├──ACL2020──基于Knowledge-Embedding的多跳知识图谱问答
│ │ ├──GPT-3诞生,Finetune也不再必要了!NLP领域又一核弹!
│ │ ├──Google Research新成果,让表格理解和检索更上一层楼!
│ │ ├──ACL'21 _ 多模态数值推理新挑战,让 AI 学解几何题
│ │ ├──告别自注意力,谷歌为Transformer打造新内核Synthesizer
│ │ ├──迁移Prompt–解决Prompt Tuning三大问题!
│ │ ├──如何让BERT拥有视觉感知能力?两种方式将视频信息注入BERT
│ │ ├──当NLPer爱上CV:后BERT时代生存指南之VL-BERT篇
│ │ ├──ACL’21 _ 对话系统也要进军多模态了!
│ │ ├──别再Prompt了!谷歌提出tuning新方法,强力释放GPT-3潜力!
│ │ ├──ACL2020──对话数据集Mutual:论对话逻辑,BERT还差的很远
│ │ ├──格局打开,带你解锁 prompt 的花式用法
│ │ ├──ACL2020 - 线上搜索结果大幅提升!亚马逊提出对抗式query-doc相关性模型
│ │ ├──别再蒸馏3层BERT了!变矮又能变瘦的DynaBERT了解一下
│ │ ├──卖萌屋上线Arxiv论文速刷神器,直达学术最前沿!
│ │ ├──加了元学习之后,少样本学习竟然可以变得这么简单!
│ │ ├──NYU & Google_ 知识蒸馏无处不在,但它真的有用吗?
│ │ ├──LayerNorm是Transformer的最优解吗?
│ │ ├──成本砍砍砍!不用数据也能用 BERT 做对比学习?
│ │ ├──Google - 突破瓶颈,打造更强大的Transformer
│ │ ├──吊打BERT-Large的小型预训练模型ELECTRA终于开源!真相却让人──
│ │ ├──对话系统答非所问?快试试这篇ACL'21的连贯性评估大法
│ │ ├──ACL'21 _ 弱标签的垃圾数据,也能变废为宝!
│ │ ├──如何优雅地编码文本中的位置信息?三种positioanl encoding方法简述
│ │ ├──ACL2020──FastBERT:放飞BERT的推理速度
│ │ ├──图灵奖大佬 Lecun 发表对比学习新作,比 SimCLR 更好用!
│ │ ├──用多模态信息做 prompt,解锁 GPT 新玩法
│ │ ├──ACL20 - 让笨重的BERT问答匹配模型变快!
│ │ ├──EMNLP'21 _ 让压缩语言模型自动搜索最优结构!
│ │ ├──刷新SOTA!Salesforce提出跨模态对比学习新方法,仅需4M图像数据!
├──算法岗求职必备
│ ├──别再搜集面经啦!小夕教你斩下NLP算法岗offer!
│ ├──拒绝跟风,谈谈几种算法岗的区别和体验
│ ├──在大厂和小厂做算法有什么不同?
│ ├──写在校招季,谈谈机器学习岗的Offer选择问题
│ ├──6 年大厂面试官,谈谈我对算法岗面试的一些看法
│ ├──13个offer,8家SSP,谈谈我的秋招经验
│ ├──面试必备基础知识
│ │ ├──卖萌屋算法岗面试手册上线!通往面试自由之路
│ │ ├──算法工程师思维导图—深度学习篇
│ │ ├──预训练模型关键问题梳理与面试必备高频FAQ
│ │ ├──算法工程师思维导图—数据结构与算法
│ │ ├──算法工程师思维导图—统计机器学习篇
│ │ ├──算法与数据结构--空间复杂度O-1-遍历树
│ │ ├──「小公式」平均数与级数
│ │ ├──「小算法」回文数与数值合法性检验
│ ├──Google、MS和BAT教给我的面试真谛
├──精编文章
│ ├──如何让BERT拥有视觉感知能力?两种方式将视频信息注入BERT
│ ├──吐血整理:论文写作中注意这些细节,能显著提升成稿质量
│ ├──视觉增强词向量:我是词向量,我开眼了!
│ ├──别再喊我调参侠!夕小瑶“科学炼丹”手册了解一下
│ ├──如何优雅地编码文本中的位置信息?三种positioanl encoding方法简述
│ ├──ACL2020 - 线上搜索结果大幅提升!亚马逊提出对抗式query-doc相关性模型
│ ├──纵观对话预训练技术演变史:化繁为简的背后,什么在消亡?
│ ├──模型训练太慢?显存不够用?这个算法让你的GPU老树开新花
│ ├──从论文到PPT,一键生成!从此报告不用愁!
│ ├──数据还是模型?人类知识在深度学习里还有用武之地吗?
│ ├──图灵奖大佬+谷歌团队,为通用人工智能背书!CV 任务也能用 LM 建模!
│ ├──工作6年,谈谈我对“算法岗”的理解
│ ├──对话系统的设计艺术
│ ├──诺奖级成果开源!为什么说AlphaFold2足以改变全人类?
│ ├──恕我直言,很多小样本学习的工作就是不切实际的
│ ├──超一流 - 从XLNet的多流机制看最新预训练模型的研究进展
│ ├──All in Linux:一个算法工程师的IDE断奶之路
│ ├──肝了1W字!文本生成评价指标的进化与推翻
│ ├──NLP中的少样本困境问题探究
│ ├──恕我直言,你的实验结论可能严重依赖随机数*敏*感*词*!
│ ├──11 个好用的科研工具推荐!工作效率提升 max!
│ ├──中文分词的古今中外,你想知道的都在这里
│ ├──BERT重计算:用22.5%的训练时间节省5倍的显存开销(附代码)
│ ├──ACL'21 _ debug完的神经网络,如何测试是否仍然存在bug?
│ ├──Google掀桌了,GLUE基准的时代终于过去了?
│ ├──NLP哪个细分方向最具社会价值?
│ ├──一时学习一时爽,_持续学习_持续爽
│ ├──万万没想到,我的炼丹炉玩坏了
│ ├──万能的BERT连文本纠错也不放过
│ ├──从 ACL’22 投稿情况,速览当下 NLP 研究热点!
│ ├──Google - 突破瓶颈,打造更强大的Transformer
│ ├──Facebook 推出多模态通用模型 FLAVA,吊打 CLIP 平均十个点!
│ ├──在错误的数据上,刷到 SOTA 又有什么意义?
│ ├──如何提高NLP模型鲁棒性和泛化能力?对抗训练论文串讲
│ ├──算法工程师的效率神器——vim篇
│ ├──AllenAI 发布万能问答系统 MACAW!各类题型样样精通,性能大幅超越 GPT-3!
│ ├──深度学习,路在何方?
│ ├──史上最大多模态图文数据集发布!
│ ├──13个offer,8家SSP,谈谈我的秋招经验
│ ├──多模态为什么比单模态好?第一份严谨证明来了!
│ ├──聊聊机器翻译界的“灌水与反灌水之战”!
│ ├──GAN 的内在漏洞!只看眼睛就能找出虚拟人脸?
│ ├──ACL20 - 让笨重的BERT问答匹配模型变快!
│ ├──写Rap,编菜谱,你画我猜……这些 AI demo 我可以玩一天!
│ ├──预训练卷不动,可以卷输入预处理啊!
│ ├──LayerNorm是Transformer的最优解吗?
│ ├──Git从入门到进阶,你想要的全在这里
│ ├──近期神奇机器学习应用大赏
│ ├──学完文本知识,我就直接看懂图片了!
│ ├──工业界求解NER问题的12条黄金法则
│ ├──谷歌:一篇论文,让研究者吃我三份安利
│ ├──谁说发 paper 一定要追快打新?2021年,研究 word2vec 也能中顶会!
│ ├──ICLR2020满分论文 - 为什么梯度裁剪能加速模型训练?
│ ├──硬核推导Google AdaFactor:一个省显存的宝藏优化器
├──编程基础
│ ├──一份北大信科内部流传的 “CS 自救指南”(无广推荐)
│ ├──Git从入门到进阶,你想要的全在这里
│ ├──算法工程师的效率神器——vim篇
│ ├──All in Linux:一个算法工程师的IDE断奶之路
│ ├──7款优秀Vim插件帮你打造完美IDE
├──有毒的文章
│ ├──万万没想到,我的炼丹炉玩坏了
│ ├──两个月,刷了八千篇Arxiv,我发现……
│ ├──发现一篇专门吐槽 NLP 内卷现状的 ACL 论文 .._
│ ├──他与她,一个两年前的故事
│ ├──谢撩,人在斯坦福打SoTA
│ ├──如何优雅的追到女神夕小瑶
│ ├──一位老师,一位领导,一个让全体学生考上目标学校的故事
│ ├──如果你跟夕小瑶恋爱了──(上)
│ ├──如果你跟夕小瑶恋爱了──(下)
│ ├──我在斯坦福做科研的碎碎念
│ ├──在斯坦福,做 Manning 的 phd 要有多强?
其它宝藏
除此之外,这群硬核的萌妹子将公众号其它宝藏整理了一番,分享给大家:
1.自然语言处理入门书单与热门方向论文列表。
2. 通往面试自由之路的算法岗面试手册,涵盖数学基础、数据结构与算法、统计机器学习和深度学习。
3. NLP经典公开课StanfordCS224n追剧计划,收录了中英字幕视频、笔记、FAQ、课后作业等,还有数千人的讨论群。
4. 轻松跟紧前沿的NLP/CV/IR方向Arxiv神器。
获取方式
关注公号,后台回复「666」即可获取