2025年6月19日下午,美国宾夕法尼亚州立大学应用语言学系陆小飞教授应中南大学人事处和外国语学院邀请,做客中南大学“名师名家”讲坛。主题为“Applications of Large Language Model Fine-tuning in Language Analysis and Testing(大语言模型微调技术在语言分析和测试中的应用)”。论坛由副院长仲文明教授主持,李清平教授、苏怡教授等100余名师生参加。

陆教授首先对大语言模型(LLM)微调技术进行了全面介绍。他指出,LLM微调技术的基本原理是在特定任务或领域的数据集上对LLM进行训练,以优化其在该任务或领域中的性能。陆教授强调,LLM微调技术在多个语言研究领域展现出了显著优势。他详细阐述了LLM微调技术的关键步骤与具体的技术手段与平台,重点介绍了监督式微调(Supervised Fine-tuning,SFT)这一技术的具体流程,包括数据收集、模型选择、训练设置与实施等环节。随后,陆教授通过具体的研究案例生动展示了LLM微调技术在语言分析与自动测评中的应用与表现。最后,陆教授总结了微调技术的优势,并提出了未来研究方向。他指出,微调技术可以帮助大语言模型在专业领域中更好地处理复杂任务,还可以促进多语言、多模态和多任务的分析,为在场师生提供了宝贵的学术资源和研究启示。

在互动环节,陆教授与师生们深入探讨了LLM微调技术在外语教学与测试中的具体应用。讨论围绕“LLM微调技术与语言学研究结合(如言语行为、儿童语言发展)”“生成式人工智能技术与微调技术的实际应用问题与发展方向”以及“LLM‘监督式’微调与‘对话式’微调的区别”等主题展开。陆教授对提出的问题进行了全面且富有启发性的解答,现场反响热烈。

通过此次讲座,师生们对大语言模型微调技术这一学术前沿领域有了系统而深入的理解。与会者纷纷表示,陆教授深入浅出的讲解不仅使大家基本掌握了该技术的核心原理和应用方法,也对其在语言分析和测试中的潜在价值和应用前景有了更为清晰的认识。
撰 稿:林姝贝
图片:王晓君
一审:邓 军
二审:范武邱
三审:杨文地