-
Notifications
You must be signed in to change notification settings - Fork 72
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
复现模型的准确率问题 #14
Comments
您好,我们自己的复现中,结果基本上跟公布的模型相差不大。 这个结果跟我们运行的结果出入比较大,麻烦检查下:
|
速度我也测试了一下,使用双卡titanxp,batchsize缩半,一个epoch需要一天,如果按默认设置则需要10天,换到4卡上确实差不多5天,语言模型和视觉模型暂时还没测试,等八卡到了我也测试一下 |
@zdz1997 请问现在复现的精度跟速度都如何了? |
使用了作者给的视觉和语言预训练模型,只训练最后一步,使用4卡titanxp跑了5天,结果上差不多,可能@zdz1997 同学在预训练语言模型和视觉模型的时候没收敛,具体结果如下: ic15:85.1 |
可能是我没有使用镜像环境的原因吧。单独测试视觉模型的准确率,相比于作者开源的pretrained model 大概低了3%。而我自己训练的视觉模型已经训练完了所有的epoch,最后观察曲线发现模型已经收敛了。至于后续的工作我再研究研究,谢谢各位的分享与回复哈。 |
使用docker平台用了作者的镜像环境,我只训练了vision model(一共训练了8个epoch)。结果如下,和开源的vision model,差距还挺大的,我直接使用的开源的code的默认的参数,要想达到开源的model 的性能,我是需要额外设置什么吗? Model | IIIT5k | SVT | IC13 | IC15 | SVTP | CUTE |
@zdz1997 您好,很有可能是您使用的数据的问题,建议您直接用我们提供的训练数据。问题详细描述请参见这个issue #30 |
感谢作者的code与dataset,用新的数据集训练后,vision model的准确率已经基本和您的model效果持平了,这数据集的功力也太可怕了 qwq........ |
你好,请问在中文下有相应的数据集吗?有测试过效果吗? |
你好,请问在中文下有相应的数据集吗?有测试过效果吗? |
你好,我训练语言模型的时候loss很快就变成0了,但是评估的时候准确率还是不高,loss也挺大的,这是什么原因呢? |
首先感谢作者的分享,看了您的文章,给了我很大的启发。
最近复现了一下您的程序,使用的是开源的code中yaml文件的默认参数,除了数据集路径与batchsize数值其他并未改动。但是训练的结果准确率却和ABInet的开源的model差了很多。
我们的复现结果:IIIT5k 准确率为89.8%,小于公布的96.4%;SVT:92.1%小于开源model的93.2%;IC15: 82.2%小于开源model的85.9%;SVTP: 87.1% 小于开源的89%;CUTE:84.7%小于开源model的89.2%。
有些数据集的准确率相差非常大,例如IIIT5k。请问是什么原因呢?可能是训练的epoch造成的吗?我复现vision model 训练了默认的8个epoch,language model 默认的epoch数是80,由于太大,我训练了5个epoch就停止了训练,这个时候从损失值来看网络差不多稳定了。在训练ABInet 时 训练了3 个epoch,此时我发现网络也已经差不多稳定了。如果完全复现80个和10个epoch,确实是一个很大的工程,我的两个2080ti的gpu大概需要30天,而文中写的使用4个1080ti也需要半个月吧
请问您训练时的参数是什么。模型的准确率相差太多是哪些地方我没注意到导致的呢?
再次感谢作者的工作与贡献。期待您的回复。
The text was updated successfully, but these errors were encountered: