通知公告

当前位置: 首页 > 通知公告 > 正文

省部共建藏语智能信息处理及应用国家重点实验室系列学术讲座(二十一)

发布日期:2023-11-03    作者:     来源:     点击:

实验室全体科研人员:

为了更好地发挥“学术交流主渠道”的积极作用,推动藏语智能信息处理及应用科学技术的发展创新,搭建高水平、高层次的学术交流平台,经省部共建藏语智能信息处理及应用国家重点实验室(以下简称实验室)学术委员会研究决定,将于2023年11月04日(星期六)在田家炳一楼学术报告厅召开实验室2023年11月学术讨论会”,请所有实验室专职、兼职科研人员及本校在读研究生参加。现将有关事项通知如下:

报告题目大语言模型预训练与微调技术原理

报告人:张钰  副教授,陕西师范大学

会议时间:2023年11月04日(星期六)11:30—12:15

会议地址:田家炳一楼学术报告厅

报告摘要:大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等。在本次报告中,我将系统的介绍大语言模型的预训练:包括基本概念原理、神经网络的语言模型、Transformer模型原理、Bert模型原理等。及针对具体应用场景的微调技术fine-tuning、parameter-efficient fine-tuning和prompt-tuning介绍及对比。

报告人简介:张钰,陕西师范大学副教授,在人工智能、计算机视觉、大数据、软件工程等领域有着深厚的造诣。在科技与文化融合创新、人工智能工业4.0应用和人工智能技术在教学中应用等方面做出一系列开创性工作,并开展了多项应用。主持国家重点研发计划、国家自然基金、青海省重点研发计划等重大科研项目,发表高水平论文30余9篇,专利多项


友情链接 / Link

© 2019 www.qhnu.edu.cn all rights reserved. 青ICP备05000184号-1

青海师范大学藏语智能信息处理及应用国家重点实验室负责维护,网络信息中心技术支持