张清宇
张清宇
首页
最新消息
近期发表
联系方式
浅色
深色
自动
中文 (简体)
中文 (简体)
English
Model Compression
ShortGPT: Layers in Large Language Models are More Redundant Than You Expect
We investigate the redundancy within Transformer layers and propose an effective layer-based pruning method.
Xin Men
,
Mingyu Xu
,
Qingyu Zhang
,
Qianhao Yuan
,
Bingning Wang
,
Hongyu Lin
,
Yaojie Lu
,
Xianpei Han
,
Weipeng Chen
PDF
引用
引用
×