In der Shannon’schen Informationstheorie bezeichnet Entropie ein Maß für die Unbestimmtheit oder den Informationsgehalt einer Informationsquelle. Sie gibt an, wie viel Information im... [mehr]
In der Shannon’schen Informationstheorie bezeichnet Entropie ein Maß für die Unbestimmtheit oder den Informationsgehalt einer Informationsquelle. Sie gibt an, wie viel Information im... [mehr]