Exemples
Die Kullback-Leibler-Divergenz ist ein Maß für die Unterscheidung zwischen zwei Wahrscheinlichkeitsverteilungen.
تباعد كولباك
In der Informationstheorie wird die Kullback-Leibler-Divergenz oft verwendet.
في نظرية المعلومات، يتم استخدام تباعد كولباك
Die Kullback-Leibler-Divergenz misst, wie sehr sich eine Wahrscheinlichkeitsverteilung von einer zweiten unterscheidet.
يقيس تباعد كولباك
Die Kullback-Leibler-Divergenz wird auch als relative Entropie bezeichnet.
يتم الإشارة إلى تباعد كولباك
Die Berechnung der Kullback-Leibler-Divergenz erfordert die Kenntnis der genauen Wahrscheinlichkeitsverteilung.
تتطلب حساب تباعد كولباك