אנטרופיה בינארית, הידועה גם בשם אנטרופיה שאנון, היא מושג בתורת המידע המודד את אי הוודאות או האקראיות של משתנה מקרי בינארי עם שתי תוצאות. היא נבדלת מאנטרופיה קלאסית בכך שהיא חלה באופן ספציפי על משתנים בינאריים, בעוד שניתן להחיל אנטרופיה קלאסית על משתנים עם כל מספר של תוצאות.
כדי להבין אנטרופיה בינארית, עלינו להבין תחילה את מושג האנטרופיה עצמה. אנטרופיה היא מדד לכמות המידע הממוצעת או אי הוודאות הכלולים במשתנה אקראי. הוא מכמת עד כמה התוצאות של משתנה מקרי הן בלתי צפויות. במילים אחרות, זה אומר לנו כמה "הפתעה" אנו יכולים לצפות כאשר אנו צופים בתוצאות של משתנה מקרי.
במקרה של משתנה מקרי בינארי עם שתי תוצאות, נסמן את התוצאות הללו כ-0 ו-1. האנטרופיה הבינארית של משתנה זה, המסומנת כ-H(X), מחושבת באמצעות הנוסחה:
H(X) = -p(0) * log2(p(0)) – p(1) * log2(p(1))
כאשר p(0) ו-p(1) הן ההסתברויות לצפייה בתוצאות 0 ו-1, בהתאמה. הלוגריתם נלקח לבסיס 2 כדי להבטיח שערך האנטרופיה המתקבל נמדד בסיביות.
כדי לחשב את האנטרופיה הבינארית, עלינו לקבוע את ההסתברויות של שתי התוצאות. אם ההסתברויות שוות, כלומר, p(0) = p(1) = 0.5, אז האנטרופיה הבינארית ממקסמת, מה שמצביע על אי ודאות מקסימלית. הסיבה לכך היא ששתי התוצאות סבירות באותה מידה, ואיננו יכולים לחזות איזו מהן תתרחש. במקרה זה, האנטרופיה הבינארית היא H(X) = -0.5 * log2(0.5) – 0.5 * log2(0.5) = 1 סיביות.
מצד שני, אם תוצאה אחת סבירה יותר מהאחרת, האנטרופיה הבינארית מצטמצמת, מה שמצביע על פחות אי ודאות. לדוגמה, אם p(0) = 0.8 ו-p(1) = 0.2, האנטרופיה הבינארית היא H(X) = -0.8 * log2(0.8) – 0.2 * log2(0.2) ≈ 0.72 סיביות. זה אומר שבממוצע, אנחנו צריכים פחות מסיבית מידע אחת כדי לייצג את התוצאות של המשתנה האקראי הבינארי הזה.
חשוב לציין שאנטרופיה בינארית היא תמיד לא שלילית, כלומר היא גדולה או שווה לאפס. היא ממקסמת כאשר ההסתברויות של שתי התוצאות שוות וממוזערות כאשר לתוצאה אחת יש הסתברות של 1 ולאחרת יש הסתברות של 0.
אנטרופיה בינארית מודדת את אי הוודאות או האקראיות של משתנה מקרי בינארי עם שתי תוצאות. זה מחושב באמצעות הנוסחה -p(0) * log2(p(0)) – p(1) * log2(p(1)), כאשר p(0) ו-p(1) הן ההסתברויות של שתי התוצאות . ערך האנטרופיה המתקבל נמדד בסיביות, כאשר ערכים גבוהים יותר מציינים אי ודאות גדולה יותר וערכים נמוכים יותר מציינים פחות אי ודאות.
שאלות ותשובות אחרונות אחרות בנושא אנטרופיה קלאסית:
- כיצד תורמת הבנת האנטרופיה לתכנון והערכה של אלגוריתמים קריפטוגרפיים חזקים בתחום אבטחת הסייבר?
- מהו הערך המקסימלי של אנטרופיה, ומתי הוא מושג?
- באילו תנאים נעלמת האנטרופיה של משתנה אקראי, ומה זה אומר לגבי המשתנה?
- מהן התכונות המתמטיות של אנטרופיה, ולמה היא לא שלילית?
- כיצד משתנה האנטרופיה של משתנה אקראי כאשר ההסתברות מחולקת באופן שווה בין התוצאות לעומת כאשר היא מוטה לתוצאה אחת?
- מה הקשר בין האורך הצפוי של מילות קוד לבין האנטרופיה של משתנה אקראי בקידוד אורך משתנה?
- הסבירו כיצד נעשה שימוש במושג אנטרופיה קלאסית בסכימות קידוד באורך משתנה לקידוד מידע יעיל.
- מהן התכונות של אנטרופיה קלאסית וכיצד היא קשורה להסתברות לתוצאות?
- כיצד מודדת אנטרופיה קלאסית את אי הוודאות או האקראיות במערכת נתונה?
עוד שאלות ותשובות:
- שדה: אבטחת סייבר
- תכנית: יסודות ההצפנה הקוונטית של EITC/IS/QCF (ללכת לתוכנית ההסמכה)
- שיעור: אנטרופיה (עבור לשיעור בנושא)
- נושא: אנטרופיה קלאסית (עבור לנושא קשור)
- סקירת בחינה