实验室全体科研人员:
为了更好地发挥“学术交流主渠道”的积极作用,推动藏语智能信息处理及应用科学技术的发展创新,搭建高水平、高层次的学术交流平台,经省部共建藏语智能信息处理及应用国家重点实验室(以下简称实验室)学术委员会研究决定,将于2023年11月04日(星期六)在田家炳一楼学术报告厅召开实验室2023年11月学术讨论会”,请所有实验室专职、兼职科研人员及本校在读研究生参加。现将有关事项通知如下:
报告题目:大语言模型预训练与微调技术原理
报告人:张钰 副教授,陕西师范大学
会议时间:2023年11月04日(星期六)11:30—12:15
会议地址:田家炳一楼学术报告厅
报告摘要:大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等。在本次报告中,我将系统的介绍大语言模型的预训练:包括基本概念原理、神经网络的语言模型、Transformer模型原理、Bert模型原理等。及针对具体应用场景的微调技术fine-tuning、parameter-efficient fine-tuning和prompt-tuning介绍及对比。
报告人简介:张钰,陕西师范大学副教授,在人工智能、计算机视觉、大数据、软件工程等领域有着深厚的造诣。在科技与文化融合创新、人工智能工业4.0应用和人工智能技术在教学中应用等方面做出一系列开创性工作,并开展了多项应用。主持国家重点研发计划、国家自然基金、青海省重点研发计划等重大科研项目,发表高水平论文30余9篇,专利多项。