Which one of the following is true for Entropy?

A

Σi, Pi log2 Pi

B

-Σi, log2 Pi

C

- Σi, Pi log2 Pi

D

Σi, Pi log2 Pi ⁄ (1+Pi)

উত্তরের বিবরণ

img

তথ্য তত্ত্বে (Information Theory) Shannon প্রদত্ত entropy সূত্রটি একটি বার্তা বা তথ্য উৎসে অনিশ্চয়তার পরিমাণ পরিমাপ করে। এটি নির্ধারণ করে একটি উৎস কতটা গড় তথ্য বহন করে।

  • সঠিক সূত্র: ( H(X) = - \sum_i P_i \log_2 P_i )

  • এখানে,

    • ( H(X) ) = উৎসের এন্ট্রপি

    • ( P_i ) = i-তম ঘটনার সম্ভাবনা

    • লগারিদমের ভিত্তি 2 নেওয়া হয়, কারণ তথ্যের একক বিট (bit)

  • অর্থ: যখন সম্ভাবনা সমান হয়, তখন অনিশ্চয়তা সর্বাধিক হয় এবং এন্ট্রপি বেশি হয়।

  • উদাহরণ: যদি একটি কয়েন ন্যায্য হয় (Head = 0.5, Tail = 0.5), তাহলে
    ( H = -[0.5 \log_2 0.5 + 0.5 \log_2 0.5] = 1 \text{ bit} )।

Unfavorite

0

Updated: 2 days ago

Related MCQ

 Working principle of a Tunnel Diode:

Created: 4 days ago

A

Quantum mechanical tunneling

B

Zener breakdown


C

Avalanche breakdown

D

Ionization tunneling

Unfavorite

0

Updated: 4 days ago

Encryption এর প্রধান উদ্দেশ্য কী?

Created: 3 weeks ago

A

ডেটা সুরক্ষা

B

ফাইল সাইজ কমানো

C

স্পিড বৃদ্ধি


D

মেমরি সাশ্রয়

Unfavorite

0

Updated: 3 weeks ago

 NFC প্রযুক্তির সম্পূর্ণ রূপ কী?


Created: 1 month ago

A

Next Generation File Communication


B

Network Foundation Control


C

New Frequency Connection


D

Near Field Communication


Unfavorite

0

Updated: 1 month ago

© LXMCQ, Inc. - All Rights Reserved

Developed by WiztecBD