

AETTA: Label-Free Accuracy Estimation for Test-Time Adaptation
这篇论文的核心思想就是将原来的模型的输出和有dropout生成的输出之间做比较,和AGL/ACL类似,都是根据一致性来评估的,但是不同之处是本论文的方法不是使用很多预训练的网络,本论文的策略是利用dropout推理采样,一般在推理阶段dropout都会被取消,这里就是重新利用上,dropout就是中间层的某些输出会被忽略。在这个熵值是Ent(1/K)也就是均匀分布的时候得到的最大的,对应的是没有失败,而当熵值最小的时候所有的batch预测的都是同一个类,对应的适应失败。越大的α会对模型失败做更大的惩罚。
