Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

代码问题请求帮助 #1

Open
LKAMING97 opened this issue Jun 18, 2022 · 10 comments
Open

代码问题请求帮助 #1

LKAMING97 opened this issue Jun 18, 2022 · 10 comments

Comments

@LKAMING97
Copy link

你好,带佬的代码写的很好,有部分代码不太懂,想请教一下,
parser.add_argument( "--arch_bits", type=lambda s: [float(item) for item in s.split(",")] if len(s) != 0 else "", default=" ", help="bits configuration of each layer",

if len(args.arch_bits) != 0: if args.wa_same_bit: set_wae_bits(model, args.arch_bits) elif args.search_w_bit: set_w_bits(model, args.arch_bits) else: set_bits(model, args.arch_bits) show_bits(model) logger.info("Set arch bits to: {}".format(args.arch_bits)) logger.info(model)
这个arch_bits主要是做什么的呢,卡在这里有段时间了

@liujingcs
Copy link
Collaborator

这个是用来设置每层的weight和activation的bitwidth

@LKAMING97
Copy link
Author

您好,我还有一个问题想请教一下,脚本里面这个,
image
在代码里面找不到对应的,只能找到
1691632960313
两者是否一致呢

@liujingcs
Copy link
Collaborator

LIQ_wn_qsam的具体位置在这里: https://github.com/ziplab/SAQ/blob/main/models/LIQ_wn_qsam.py

@LKAMING97
Copy link
Author

你好大佬,作为一名刚接触模型量化的学生很喜欢您的工作,我是有以下一些疑问的,想知道通过这样量化感知训练(伪量化?)后的模型大小为什么会没变的,是需要进一步的后处理才能成为量化模型?还是这样训练后的模型的就已经是默认量化好的,可以进行部署了

@liujingcs
Copy link
Collaborator

目前量化模型存储时还是用float32存储的,所以模型大小没变。如果要减小模型大小,需要将模型转成低比特进行存储

@LKAMING97
Copy link
Author

目前量化模型存储时还是用float32存储的,所以模型大小没变。如果要减小模型大小,需要将模型转成低比特进行存储

但是里面的权重激活已经是低比特了是吗

@liujingcs
Copy link
Collaborator

权重是的,激活值需要量化后才是低比特。比如说权重的范围是[0,1],那么量化到2-bit之后,量化之后的值就只有{0, 1/3, 2/3, 1}

@LKAMING97
Copy link
Author

LKAMING97 commented Aug 12, 2023 via email

@liujingcs
Copy link
Collaborator

详细步骤可以参考这个: https://pytorch.org/docs/stable/quantization.html

@wangyu-lab
Copy link

详细步骤可以参考这个: https://pytorch.org/docs/stable/quantization.html
您好,看了您的建议,我使用了pytorch api进行int8量化,想问问您具体应该使用什么模块进行int8模型转换,获取权重和参数呢,搜索了很多一直没有头绪

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants