没有得到相同的答案sparse_softmax_cross_entropy_with_logits

问题描述:

我试图确保我了解我的成本函数是如何工作的,因为我的模型看起来不是很好,所以我从一个小批量中获取了成本并试图手动计算它看看我是否得到相同的成本。 Tensorflow给出的成本是0.48568。但在下面的手动尝试中,我获得了0.2109。没有得到相同的答案sparse_softmax_cross_entropy_with_logits

作为一个附注,我提到this来帮助我找出手动计算。

Manual Calcs

+0

顺便说一下,在进行二进制分类时,不需要使用softmax。你只能使用物流损失。 – Aaron

好吧,我想通了!我在计算中使用日志到基数10(Excel默认值)。实际上它需要记录到基础e(ln函数)。