热门问题
时间线
聊天
视角
阿西什·瓦斯瓦尼
来自维基百科,自由的百科全书
Remove ads
阿西什·瓦斯瓦尼(英语:Ashish Vaswani,1986年—)是一名从事深度学习的计算机科学家[1],因其在人工智能和自然语言处理(NLP)领域的重大贡献而知名。他是开创性论文《Attention Is All You Need》的合著者之一[2],该论文介绍了Transformer模型,这是一种使用自注意力机制的新型架构,自此成为NLP领域许多最先进模型的基础。Transformer架构是语言模型的核心,为ChatGPT等应用提供了动力[3][4][5]。他是Adept人工智能实验室的共同创办人[6][7],也曾是Google大脑的研究科学家[8][9]。
Remove ads
职业生涯
2002年,瓦斯瓦尼完成贝拉理工学院梅斯拉分校计算机科学工程学的学业。2004年,他前往美国南加州大学继续深造[10],并获得博士学位[11]。他曾在Google担任研究员[12],是Google大脑团队的一员。 他曾是Adept AI Labs的联合创始人之一,但后来离开该公司[13][14]。
知名作品
瓦斯瓦尼最知名的作品是2017年发表的论文《Attention Is All You Need》[15]。论文介绍了Transformer模型,该模型在序列到序列任务中避免使用递归,而完全依赖自注意力机制。该模型对随后几个最先进的NLP模型(包括BERT[16]、GPT-2和GPT-3)的开发起到重要作用。
参考资料
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads