שפות חסרות הקשר – למת הניפוח, הלמה של אוגדן ושפות רב משמעיות

אני ממשיך לדבר על תכונות שונות ומשונות של שפות חסרות הקשר, וממשיך עם האנלוגיה לשפות רגולריות. אחד מהדברים שעשינו בשפות רגולריות היה להוכיח משהו שנקרא "למת הניפוח", שהצביע על סוג של תבניתיות שכל שפה רגולרית חייבת לקיים. משהו מאוד דומה קיים גם עבור שפות חסרות הקשר, אבל כרגיל עם שפות חסרות הקשר, זה קצת יותר מסובך. אני אראה את המשהו המאוד דומה. ואז אני אכליל אותו עוד קצת. ואז אני אשתמש בהכללה כדי להראות משהו שנראה בלתי קשור בעליל. בלמת הניפוח לשפות רגולריות השתמשנו כדי להוכיח ששפות אינן רגולריות, ובאופן דומה אפשר להשתמש בלמת הניפוח לשפות חסרות הקשר כדי להוכיח ששפות אינן חסרות הקשר; אבל אני אוכיח גם משהו שונה לחלוטין – ששפה חסרת הקשר מסויימת היא רב-משמעית טבועה, דהיינו שכל דקדוק עבור השפה בהכרח יהיה רב משמעי (אזכיר את כל ההגדרות בהמשך). זה שימוש יפה שאני מאוד מחבב כי על פניו בכלל לא ברור מה הקשר.

.נתחיל עם להיזכר מה הלך בשפות רגולריות. שם, בהינתן שפה רגולרית $latex L$, הוכחנו שקיים $latex n$ טבעי כך שלכל מילה $latex z\in L$ המקיימת $latex \left|z\right|\ge n$ קיים פירוק $latex z=uvw$ כך ש-$latex \left|uv\right|\le n$ ו-$latex \left|v\right|\ge1$ ו-$latex uv^{i}w\in L$ לכל $latex i\ge0$. הרעיון מאחורי ההוכחה היה פשוט ויפה – ניקח אוטומט עבור השפה, ונריץ אותו על מילה ארוכה מספיק – מתישהו בהכרח תהיה בריצה "לולאה" (מצב כלשהו שהופיע פעמיים), ואז נוכל לקחת את תת-המילה שהאוטומט קרא על הלולאה ולהעלים אותה או לחזור עליה כמה פעמים שנרצה, ועדיין נקבל את המילה.

הרעיון של למת הניפוח לשפות חסרות הקשר הוא בדיוק אותו דבר, אבל בהקשר קצת שונה – לא של אוטומט (אמנם הצגתי אוטומט מחסנית עבור שפות חסרות הקשר, אבל אני לא אשתמש בו כאן), אלא של דקדוק חסר הקשר. מה שארצה לומר הוא שאם דקדוק חסר הקשר מייצר מילה שהיא ארוכה מספיק, אז בעץ הגזירה של המילה יהיה חייב להיות מסלול ארוך מאוד – כל כך ארוך, עד שמשתנה כלשהו של הדקדוק יופיע בו פעמיים. כלומר, יהיה משתנה שגוזר "את עצמו ועוד קצת". ואז נוכל לוותר על הגזירה הזו או לחזור עליה כמה פעמים שנרצה, ובכך להשיג אפקט ניפוח שדומה לזה של הלמה עבור שפות פורמליות, אבל הניסוח המדוייק שלו קצת יותר מסובך. בואו ניתן את הניסוח הזה:

אם $latex L$ היא שפה חסרת הקשר אז קיים $latex n$ טבעי כך שלכל מילה $latex z\in L$ קיים פירוק $latex z=uvwxy$ כך ש-$latex \left|vwx\right|\le n$ ו-$latex \left|vx\right|\ge1$ ו-$latex uv^{i}wx^{i}y\in L$ לכל $latex i\ge0$.

במבט ראשון זה קצת מפחיד – יש פה פתאום פירוק לחמישה חלקים במקום שלושה, והניפוח הוא של שני חלקים בו זמנית, וכל העסק נראה מוזר – אבל אחרי שנראה את ההוכחה נבין למה זה טבעי ופשוט למדי. בינתיים, תרגיל פשוט כדי לידד אתכם עם הניסוח החדש – תוכיחו שאם שפה מקיימת את למת הניפוח לשפות רגולריות, אז היא מקיימת את למת הניפוח לשפות חסרות הקשר ("מקיימת את למת הניפוח" פירושו, "מקיימת את החלק של ה"אז קיים", בלי להתחייב על ה"אם").

כדי להוכיח את הלמה אני צריך לקחת דקדוק עבור $latex L$, אבל כדי שהחיים יהיו קלים אני לא לוקח סתם דקדוק, אלא דקדוק שנמצא בצורה נורמלית פשוטה מאוד – הצורה הנורמלית של חומסקי. דקדוק בצורה הזו כולל רק שני סוגים של כללי גזירה: $latex A\to a$ או $latex A\to BC$. כלומר, משתנה יכול או לגזור אות אחת, או להתפצל לשני משתנים. שימו לב שדקדוק בצורה הנורמלית הזו לא יכול לגזור את $latex \varepsilon$ כך שאני מניח לכאורה ש-$latex L$ לא כוללת את $latex \varepsilon$, אבל זה לא ממש משנה – אם $latex L$ כוללת את $latex \varepsilon$ אני אוכיח את למת הניפוח על $latex L\backslash\left\{ \varepsilon\right\} $ והמסקנה שאקבל תהיה תקפה גם עבור $latex L$ באותה מידה (כי אני אקח $latex n\ge1$ ולכן $latex \varepsilon$ ממילא לא רלוונטית).

כמובן, צריך להסביר למה לכל שפה חסרת הקשר בלי $latex \varepsilon$ יש דקדוק מהצורה הנורמלית של חומסקי. אני אקדיש לזה בדיוק פסקה אחת, ואתם לא חייבים להבין אותה ואם אתם מסתבכים פשוט תדלגו הלאה. האינטואיציה לא קשה – כל גזירה שמערבת גם משתנים וגם טרמינלים אפשר להחליף בגזירה שיש בה רק משתנים על ידי הוספת משתני עזר. למשל, אם יש לי את הגזירה $latex A\to BaC$ אני יכול להוסיף משתנה עזר חדש $latex A_{a}$ שהגזירה היחידה שלו היא $latex A_{a}\to a$ ואז להחליף את הגזירה הנתונה ב-$latex BA_{a}C$. עכשיו, אם יש לי גזירה של שלושה משתנים או יותר, אני יכול "להקטין" אותה בעזרת משתני עזר. למשל, אם $latex A\to B_{1}B_{2}B_{3}B_{4}$ אני אוסיף משתני עזר חדשים $latex C_{1},C_{2},C_{3}$ ואת הגזירות $latex A\to B_{1}C_{1}$ ו-$latex C_{1}\to B_{2}C_{2}$ ו-$latex C_{3}\to B_{3}B_{4}$. אז בעצם, הדבר היחיד שמסובך לטפל בו הוא גזירות מהצורה $latex A\to B$ (גזירות כאלו נקראות "כללי יחידה") וגזירות מהצורה $latex A\to\varepsilon$. מגזירות כאלו תמיד אפשר להיפטר באופן דומה לאיך שנפטרים מכללי-$latex \varepsilon$ באוטומט סופי דטרמיניסטי – קודם כל מגלים את כל המשתנים $latex B$ שעבורם מתקיים $latex A\Rightarrow^{*}B$ (סתם לקחת משתנים כך ש-$latex A\to B$ לא מספיק, כי מה קורה אם $latex B\to C$? אז נקבל ש-$latex A\Rightarrow^{*}C$ – זה דומה ל"סגור-$latex \varepsilon$" עבור שפות רגולריות), ועכשיו מוסיפים לדקדוק את כל הגזירות מהצורה $latex A\to\alpha$ כך ש-$latex B\to\alpha$ היה גזירה בדקדוק המקורי. לבסוף, מעיפים את כל כללי היחידה. באופן דומה אפשר גם לטפל בגזירות מהצורה $latex A\to\varepsilon$ – קודם כל מגלים את כל המשתנים שהם "אפיסים", כלומר $latex A\Rightarrow^{*}\varepsilon$, ואחר כך לכל גזירה $latex A\to X_{1}X_{2}\dots X_{n}$ (כאשר כל $latex X$ כזה יכול להיות או משתנה או טרמינל) מחליפים אותה בכל הגזירות מהצורה $latex A\to Y_{1}\dots Y_{n}$ כאשר $latex Y_{i}=X_{i}$ אם $latex X_{i}$ לא אפיס, ו-$latex Y_{i}\in\left\{ \varepsilon,X_{i}\right\} $ אם הוא כן. ואז מסירים את כל הגזירות מהצורה $latex A\to\varepsilon$ מהדקדוק.

עכשיו, מה שאני הולך להוכיח הוא שאם $latex z\in L$ מקיימת $latex \left|z\right|\ge n$ אז קיים לה פירוק $latex z=uvwxy$ עם $latex \left|vwx\right|\le n$ ו-$latex \left|vx\right|\ge1$ כך שמתקיימים שלושת הדברים הבאים:

$latex S\Rightarrow^{*}uAy$ עבור משתנה $latex A$ כלשהו.

$latex A\Rightarrow^{*}vAx$

$latex A\Rightarrow^{*}w$

זה מסביר את המבנה ה"מוזר" של הפירוק. בואו נגיד במילים מה הם שלושת הדברים הללו: יש בדקדוק משתנה $latex A$ שגוזר את עצמו, ואותו המשתנה ניתן לגזירה מתוך $latex S$, ובנוסף הוא יודע לגזור מילה טרמינלית. כאשר גוזרים אותו מתוך $latex S$ נסמן ב-$latex u,y$ את "מה שמתפזר לצדדים", ובאופן דומה כאשר $latex A$ גוזר את עצמו נסמן ב-$latex v,x$ את "מה שמתפזר לצדדים", וב-$latex w$ אנחנו מסמנים את המילה הטרמינלית שאנחנו יודעים שהוא יודע לגזור. אם הראינו את שלושת הדברים הללו, ברור שאפשר לייצר את $latex uv^{i}wx^{i}z$ לכל $latex i\ge0$: על ידי ביצוע הגזירה $latex S\Rightarrow^{*}uAy$, הפעלה $latex i$ פעמים של הגזירה $latex A\Rightarrow^{*}vAx$ ולבסוף הפעלה אחת של $latex A\Rightarrow^{*}w$.

עיקר האתגר יהיה להוכיח ש-$latex A$ כזה קיים בכלל. הרעיון הוא כזה: אם $latex z$ היא מילה גדולה מספיק, אז עץ הגזירה שלה יהיה חייב להיות עמוק, מסיבה שאסביר בהמשך. בואו נסמ ב-$latex k=\left|V\right|$ את גודל קבוצת המשתנים של הדקדוק. אם אצליח לגרום לכך שהמסלול העמוק ביותר בעץ יהיה בן לפחות $latex k+1$ צמתים פנימיים, זה מבטיח שיהיה משתנה שמופיע עליו פעמיים (זכרו – בעץ גזירה הצמתים הפנימיים הם משתנים, והעלים הם טרמינלים). המשתנה הזה יהיה ה-$latex A$ שלי. כדי להבטיח את הטענה על כך ש-$latex \left|vwx\right|\le n$ אני אצטרך לבחור משתנה שמופיע פעמיים והוא "נמוך ככל האפשר" בעץ (קרוב ככל האפשר לעלים). בואו עכשיו ניגש לפורמליזציה.

הפואנטה של שימוש בצורה הנורמלית של חומסקי היא שעץ הגזירה הוא בעל צורה מאוד ספציפית – הוא עץ בינארי, כלומר לכל צומת יש שני בנים, פרט לצמתים שהבנים שלהם הם עלים, ולצמתים כאלו יש רק בן יחיד. מה שנחמד בעצים בינאריים (ובאופן כללי, בעצים שבהם יש חסם קבוע על מספר הבנים של צומת) הוא שקל לקשור בין מספר העלים של העץ ובין העומק שלו. בואו ניקח לרגע עץ בינארי מושלם, שפירושו שכל העלים בעץ הם באותו עומק, וכל צומת שאינו עלה הוא בעל שני בנים. נניח שהעומק שלו הוא $latex d$, כלומר שאורך המסלול מהשורש אל עלה כלשהו הוא בן $latex d$ צעדים (ולכן אנחנו רואים בדרך $latex d+1$ צמתים). כמה עלים יש לעץ? הכי קל לעבוד עם מקרים פרטיים: עבור $latex d=0$ העץ כולו כולל רק צומת יחיד. עבור $latex d=1$ יש לנו את השורש ושני בנים. עבור $latex d=2$ לכל אחד משני הבנים יש שני בנים, ולכן יש ארבעה עלים. עבור $latex d=3$ כל אחד מארבעת העלים הוא עכשיו אב גאה לשני בנים נוספים, ולכן יש שמונה עלים… הבנתם את העיקרון. בעץ בינארי מושלם מעומק $latex d$ יש בדיוק $latex 2^{d}$ עלים. זה אומר שאם יש לנו עץ בינארי כלשהו (לאו דווקא מושלם) שבו יש יותר מ-$latex 2^{d}$ עלים, אז בהכרח העומק שלו גדול מ-$latex d$.

אז מה שנעשה, אם $latex k$ הוא מספר המשתנים של הדקדוק שלנו, נבחר $latex n=2^{k}$. עכשיו בואו ניקח עץ גזירה כלשהו עבור $latex z$. אם נעיף את הצמתים של הטרמינלים, נקבל עץ בינארי שבו העלים הם המשתנים שהגזירה שהם ביצעו היא גזירה של טרמינלים. מכיוון שכל משתנה כזה גזר טרמינל אחד, מספר המשתנים הללו הוא בדיוק $latex \left|z\right|$, כלומר מספר העלים בעץ הוא לפחות $latex 2^{k}$, ולכן עומק העץ הוא לפחות $latex k$. ניקח את המסלול הארוך ביותר בעץ – מכיוון שהעומק שלו הוא לפחות $latex k$, הרי שכשאנחנו הולכים עליו אנחנו רואים לפחות $latex k+1$ משתנים. מסקנה – קיימים משתנים שמופיעים פעמיים על המסלול הזה. בואו נתחיל ללכת על המסלול מהעלה לכיוון השורש, ונסמן ב-$latex A$ את המשתנה הראשון שמופיע פעמיים. עכשיו אפשר לתת את פירוק המילה שלנו – נסמן ב-$latex w$ את המילה שהמופע השני, הנמוך יותר, של $latex A$ גוזר; על כן המופע הראשון של $latex A$ גוזר מילה ש-$latex w$ היא חלק ממנה, ונסמן את החלקים שלפני ואחרי $latex w$ ב-$latex v,w$ בהתאמה, כלומר $latex A$ הראשון גוזר את המילה $latex vwx$. המילה הזו היא בתורה חלק מהמילה ש-$latex S$ גוזר (כלומר, המילה של עץ הגזירה כולו) ונסמן את הלפני ואחרי ב-$latex u,y$, כלומר המילה כולה היא $latex uvwxy$ – הנה הפירוק שלנו. זה מאוד מבלבל אז הנה תמונה:

pumping_lemma_cf

עכשיו מגיע הטיעון העדין ביותר בהוכחה. אני טוען שמבין שני המופעים של $latex A$ שראינו, הגבוה יותר הוא כזה שתת-העץ שלו הוא מגובה $latex k$ לכל היותר. זה נובע משני דברים. ראשית, אני טוען שהגובה של ה-$latex A$ הזה על המסלול העמוק ביותר הוא לא יותר מ-$latex k$. זה די ברור, מכיוון שאם הגובה היה יותר מ-$latex k$, אז עוד לפני שהיינו מגיעים אל המופע הגבוה יותר של $latex A$ כבר היינו רואים $latex k+1$ משתנים, ולכן היה משתנה אחר שכבר היה מופיע פעמיים והיינו רואים אותו. כעת, בנוסף לכך, אני צריך לטעון שאין מסלול אחר שעובר דרך ה-$latex A$ הזה ומגיע לעלים, והוא ארוך יותר מ-$latex k$ – זה נובע מכך שהמסלול שלקחתי היה המסלול העמוק ביותר ולכן אין מסלול שיותר עמוק ממנו. אני מתעכב על הטיעון הזה כי זו הנקודה שבה אני טעיתי בעבר שוב ושוב כאשר הצגתי את המשפט: פשוט אמרתי משהו בסגנון "עומק העץ הוא לפחות $latex k$ אז קיים מסלול שבו יש משתנה שמופיע פעמיים". זה נכון, אבל לא מבטיח לנו שהמופע הראשון מבין השניים של המשתנה הזה יהיה נמוך יחסית – מגובה $latex k$ לכל היותר.

ולמה זה חשוב, שהוא מגובה $latex k$ לכל היותר? כי זה מגביל את מספר העלים בתת-העץ שלו להיות לכל היותר $latex 2^{k}$. ותת העץ הזה הוא בדיוק תת-העץ שמייצר את $latex vwx$ שלנו, כך שאנחנו מקבלים את הדרישה $latex \left|vwx\right|\le n$. אם לא היה אכפת לנו מהדרישה הזו (שנראית קצת מלאכותית במבט ראשון) ההוכחה הייתה יותר קלה כי לא היינו צריכים את כל הנימוקים העדינים הללו, אבל הדרישה הזו מאוד מועילה לנו כשאנחנו רוצים להשתמש בלמה (כמו הדרישה הדומה ש-$latex \left|uv\right|\le n$ בלמת הניפוח לשפות רגולריות) ולכן התעקשנו עליה.

עדיין צריך להסביר למה $latex \left|vx\right|\ge1$ וזה לא לגמרי מובן מאליו. הטענה היא שכאשר $latex A$ הראשון גוזר את $latex A$ השני, חייב להיות משהו ש"ייגזר בצד", כלומר לא ייתכן שהגזירה היא מהצורה $latex A\Rightarrow^{*}A$. בדקדוקים כלליים אין לנו משהו שיבטיח את זה, אבל בצורה הנורמלית של חומסקי זה קל. הגזירה שה-$latex A$ הראשון מבצע בצעד הראשון שלו חייבת להיות מהצורה $latex A\Rightarrow BC$, ועכשיו אם (בלי הגבלת הכלליות) $latex A$ השני הוא בתת-העץ של $latex B$, אז בתת-העץ של $latex C$ יהיה לפחות טרמינל אחד (כי $latex C$ יודע רק לגזור שני דברים: או טרמינל, או עוד משתנים שמחוייבים בתורם לגזור משתנים או טרמינלים). אין ל-$latex C$ דרך פשוט "להעלים את עצמו".

זה מסיים את ההוכחה של למת הניפוח לשפות חסרות הקשר. בואו נראה עכשיו דוגמה זריזה לשימוש בה, בלי להיכנס לכל הפרטים – נוכיח ש-$latex L=\left\{ a^{n}b^{n}c^{n}\ |\ n\ge0\right\} $ היא לא חסרת הקשר. לצורך כך נניח בשלילה שהיא חסרת הקשר, יהא $latex n$ שקיומו מובטח על ידי הלמה ונסתכל במילה $latex z=a^{n}b^{n}c^{n}$. אנחנו צריכים להראות שאפשר "לקלקל" כל פירוק אפשרי שלה. הנקודה היא שפירוק $latex z=uvwxy$ כלשהו חייב להיות מאחת מחמש צורות אפשריות, בגלל המגבלה $latex \left|vwx\right|\le n$: או ש-$latex vwx$ חי כולו בתוך אחד משלושת הרצפים $latex a^{n},b^{n},c^{n}$, או שהוא נמצא אי שם בתוך הרצף $latex a^{n}b^{n}$ וחוצה אותו באמצע, או שהוא נמצא בתוך הרצף $latex b^{n}c^{n}$ וחוצה אותו באמצע. בכל מקרה אין ל-$latex vwx$ יכולת לכלול בתוכו גם $latex a$-ים, גם $latex b$-ים וגם $latex c$-ים כי זה יצריך ממנו להכיל לפחות $latex n+2$ תווים (לפחות $latex a$ אחד, לפחות $latex c$ אחד ואת כל ה-$latex b^{n}$ שבאמצע) ולכן אם נבחר $latex i=0$ בהכרח נקבל מילה שמספר האותיות משלושת הסוגים בה לא מאוזן (כי הקטנו לפחות סוג אחד של אותיות, אבל באחד מהסוגים לא נגענו).

יש הכללה מאוד ברורה של הלמה שלא כל כך קשה להבין. הרעיון בה הוא שיש לנו קצת יותר שליטה על המיקום של ה-$latex vwx$, שכרגע כל מה שאנחנו יודעים עליו זה שהוא מאורך לכל היותר $latex n$ ונמצא במקום כלשהו במילה (בניגוד ללמת הניפוח לשפות רגולריות, ששם הוא היה חייב להיות בהתחלה). הרעיון הוא שאם $latex z$ היא יותר ארוכה מ-$latex n$, אז אין צורך להסתכל על כל $latex z$ כדי להפעיל את הלמה; מספיק להסתכל על מקום כלשהו שהוא ארוך מ-$latex n$ והלמה תפעל עליו. אבל למעשה, אפילו לא חייבים $latex n$ תווים רציפים; אפשר להסתכל על כל סדרה של $latex n$ תווים, גם לא רציפים, ולדבר על החלק מעץ הגזירה שמייצר את כל התווים בסדרה הזו. החלק הזה יהיה חייב להיות עמוק מספיק, וכן הלאה וכן הלאה. אז הנה הניסוח הפורמלי: בהינתן שפה חסרת הקשר $latex L$ קיים קבוע $latex n$ כך שלכל מילה $latex z\in L$ ולכל בחירה של לפחות $latex n$ תווים ב-$latex z$, שנקרא להם "מסומנים", קיים פירוק $latex z=uvwxy$ כך ש-$latex vwx$ כולל לכל היותר $latex n$ תווים מסומנים, $latex vx$ כולל לפחות תו מסומן אחד, ו-$latex uv^{i}wx^{i}z\in L$ לכל $latex i\ge0$. למת הניפוח לשפות רגולריות היא פשוט מקרה פרטי של זה כאשר כל התווים של $latex z$ הם מסומנים.

ההכללה הזו נקראת לפעמים "הלמה של אוגדן" – כך היא מופיעה בספר האוטומטים של הופקרופט ושות', שהוא כנראה הספר הידוע ביותר על הנושא כיום, וכך היא מופיעה גם בויקיפדיה האנגלית (כנראה בעקבות הופקרופט). אבל הניסוח במאמר המקורי של אוגדן היה שונה וחזק יותר והוא זה שאציג עכשיו (הסיבה לכך היא שאוגדן הוכיח את הלמה שלו כדי להוכיח את עניין רב המשמעות שאגיע אליו בסוף הפוסט; עד כמה שאני רואה, בניסוח של הופקרופט ושות' אי אפשר לעשות את זה, והם אפילו לא מנסים אלא סתם מזכירים את הלמה בתוך תרגיל כבדרך אגב). הטענה של אוגדן היא כזו: אם $latex L$ היא חסרת הקשר, אז קיים $latex n$ טבעי כך שלכל מילה $latex z\in L$ וסימון של לפחות $latex n$ תווים ב-$latex z$, קיים ל-$latex z$ פירוק $latex z=uvwxy$ כך שמתקיים $latex uv^{i}wx^{i}y\in L$ כרגיל לכל $latex i\ge0$, אבל התכונות של הפירוק יותר מורכבות: ראשית, $latex w$ מכיל לפחות תו מסומן אחד; שנית, או שגם $latex u$ וגם $latex v$ מכילים תו מסומן, או שגם $latex x$ וגם $latex y$ מכילים תו מסומן. לבסוף, כרגיל, $latex vwx$ לא מכיל יותר מ-$latex n$ תווים מסומנים.

הניסוח הזה שונה ממה שראינו עד כה בכך שיש דרישה כלשהי על $latex u,w,y$ – החלקים ש"לא מנפחים" – ב-$latex w$ מובטח לנו שיהיה תו מסומן, ואילו ב-$latex u,y$ מובטח לנו שלאחד מהם יהיה תו מסומן (וכך גם לחלק שכן מנפחים שנמצא יחד איתו). עוד מעט נראה למה הניסוח הזה מועיל כל כך, אבל לעת עתה בואו נבין איך מוכיחים אותו. ההוכחה אמנם היא בעלת אותו רעיון כמו למת הניפוח, אבל הטיעונים זהירים יותר.

כמקודם, נרצה למצוא מסלול ארוך מספיק בעץ הגזירה, עם משתנה $latex A$ שמופיע עליו פעמיים. אבל אנחנו צריכים להקפיד שתת-עץ הגזירה של $latex A$ הזה יכיל מספיק תווים מסומנים. צמתים "מוצלחים" בהיבט הזה הם צמתים שבתת-העץ של כל אחד משני הבנים שלהם יש תווים מסומנים – אוגדן קורא להם "צמתי $latex B$". עכשיו אוגדן בוחר בתוך המסלול שלו מסלול בעץ שיש בו מספר מקסימלי של צמתי $latex B$, ושמסתיים בתו מסומן (הסיום של המסלול יהיה בתוך ה-$latex w$ שלנו, ולכן הדרישה הזו תבטיח שב-$latex w$ יהיה תו מסומן). עכשיו, מה שאוגדן רוצה כדי שהלמה תעבוד הוא שבמסלול שלו יהיו לפחות $latex 2\left|V\right|+3$ צמתי $latex B$ – זה משמעותית יותר גדול מאשר ה-$latex \left|V\right|+1$ שרצינו עבור למת הניפוח הרגילה, ולכן הבחירה של $latex n$ תהיה גדולה יותר – $latex n=2^{2\left|V\right|+3}$. הטיעון שמסביר למה עבור $latex n$ כזה בהכרח יש לנו מספיק צמתי $latex B$ דומה לטיעון הרגיל בלמה, כשלא היו צמתים מסומנים בכלל; הרעיון הוא שרק צומת $latex B$ יגדיל את מספר התווים המסומנים במילה הסופית, בזמן שצומת שרק לאחד משני בניו יש תווים מסומנים לא הולך להגדיל את מספר התווים המסומנים הכולל. נסו להוכיח זאת לעצמכם אם אתם לא משוכנעים.

עכשיו החלק הטריקי. אנחנו רוצים להבטיח שיהיו מקומות מסומנים גם ב-$latex u,v$ או $latex x,y$. בואו ניקח צומת $latex B$ שהבן הימני שלו ממשיך על גבי המסלול שבחרנו – מה קורה עם הבן השמאלי שלו? לבן השמאלי הזה יהיה תת-עץ שמכיל תו מסומן, והוא בא לפני תת-העץ של הבן השמאלי של הצומת. כלומר, אם הצומת גבוה מספיק, התו המסומן הזה יהיה בתוך משהו שבא לפני $latex w$.

אז הנה מה שנעשה. נחלק את צמתי ה-$latex B$ על המסלול שלנו לשתי קבוצות, $latex C_{L}$ ו-$latex C_{R}$, כך שכל צמתי ה-$latex B$ ב-$latex C_{L}$ הם כאלו שהבן הימני שלהם ממשיך על המסלול, ועבור הצמתים ב-$latex C_{R}$ הבן השמאלי ממשיך על המסלול. מכיוון שהיו $latex 2\left|V\right|+3$ צמתי $latex B$ במסלול, בהכרח אחת משתי הקבוצות הללו כוללת לפחות $latex \left|V\right|+2$ צמתים – בואו נניח שזו $latex C_{L}$. ניקח את הצומת הראשון ב-$latex C_{L}$ ונסמן אותו ב-$latex D$- הצומת הזה הולך ליצור תו מסומן בתוך $latex u$ עם הבן השמאלי שלו. עכשיו נשארו לנו $latex \left|V\right|+1$ צמתים ב-$latex C_{L}$ על המסלול, שכולם באים אחרי $latex D$, אז ניקח כמו קודם משתנה $latex A$ שמופיע פעמיים ועושה את זה הכי נמוך שרק אפשר. המשתנה הזה שייך ל-$latex C_{L}$, ולכן הבן השמאלי של המופע הראשון שלו הולך ליצור תו מסומן אחד לפחות – התו הזה יהיה ב-$latex v$. קיבלנו את מה שרצינו, במחיר של ניתוח עדין יותר של הלמה, ובחירה של $latex n$ גדול יותר.

אני רק רוצה לחדד עוד נקודה עדינה – בניסוח הלמה שלו, אוגדן לא אומר רק ש-$latex uv^{i}wx^{i}y\in L$ לכל $latex i\ge0$ – הוא אומר במפורש שקיים משתנה $latex A$ כך ש-$latex S\Rightarrow^{*}uAy\Rightarrow^{*}uvAxy\Rightarrow^{*}uvwxy$. זה יהיה לנו חשוב בהמשך.

כדי להראות למה זה שימושי, בואו נדבר על רב-משמעות. כזכור, דקדוק הוא רב משמעי אם קיימת מילה אחת לפחות שיש לה שני עצי גזירה שונים. כלומר, יש שתי דרכים שונות לגזור אותה, שנבדלות לא רק בשאלה מתי מופעל כלל גזירה על משתנה, אלא גם איזה כלל גזירה הופעל. לדוגמה, שתי הגזירות $latex A\Rightarrow BC\Rightarrow bC\Rightarrow bc$ ו-$latex A\Rightarrow BC\Rightarrow Bc\Rightarrow bc$ מתאימות לאותו עץ גזירה ונבדלות רק בסדר שבו בוצעו הגזירות של המשתנים; לעומת זאת $latex A\Rightarrow BC\Rightarrow bbC\Rightarrow bbb$ ו-$latex A\Rightarrow BC\Rightarrow Bbb\Rightarrow bbb$ הן גזירות שמתאימות לעצי גזירה שונים (בראשון $latex B$ גוזר שני $latex b$-ים, ובשני דווקא $latex C$ גוזר שני $latex b$-ים). לכן דקדוק שמאפשר את הגזירות מהדוגמה השניה הוא רב משמעי.

רב משמעות היא עניין בעייתי כאשר אנחנו רוצים להשתמש בעץ הגזירה של מילה כדי להבין את המבנה שלה – למשל, להשתמש בעץ הגזירה של תוכנית מחשב כדי להבין את מבנה התוכנית, ואנחנו מן הסתם לא רוצים לאפשר שתי משמעויות שונות (ועצי גזירה שונים לאותה תוכנית מחשב אכן יובילו לרוב לשתי תוכניות שמתנהגות בצורה שונה – די אסון). זה מעלה מייד שתי שאלות – ראשית, בהינתן דקדוק, האם ניתן לבדוק האם הוא רב משמעי? ושנית, בהינתן דקדוק, האם ניתן להמיר אותו בדקדוק אחר עבור אותה שפה, שהוא כן חד משמעי?

באופן די עגום, התשובה לשתי השאלות הללו היא "לא", או ליתר דיוק, "לא תמיד". לא אסביר כרגע למה לא תמיד ניתן לבדוק האם דקדוק נתון הוא רב משמעי, אבל אגיע לזה בהמשך; עכשיו אסביר למה לא תמיד ניתן להמיר דקדוק רב משמעי בדקדוק חד משמעי – זה בגלל שיש שפות שהן רב משמעיות טבועות, דהיינו כל דקדוק עבורן יהיה בהכרח רב משמעי. והן לא חייבות להיות מסובכות; הדוגמה שלי היא השפה התמימה למראה $latex L=\left\{ a^{n}b^{n}c^{k}\ |\ n,k\in\mathbb{N}\right\} \cup\left\{ a^{k}b^{n}c^{n}\ |\ n,k\in\mathbb{N}\right\} $. כלומר, אוסף כל המילים מהצורה $latex a^{*}b^{*}c^{*}$ כך שמספר ה-$latex b$-ים שווה למספר ה-$latex a$-ים או למספר ה-$latex c$-ים. ברור שזו שפה חסרת הקשר כי תחשבו על אוטומט מחסנית שמקבל אותה: הוא מחליט אי דטרמיניסטית מראש למי מספר ה-$latex b$-ים יהיה שווה ואז מתנהג כמו אוטומט עבור $latex \left\{ a^{n}b^{n}\ |\ n\in\mathbb{N}\right\} $ תוך שאת האותיות מהסוג השלישי הוא סתם קורא ולא נוגע במחסנית (תרגיל קל: כתבו דקדוק עבור השפה הזו).

נותר לי להוכיח שהשפה היא רב משמעית טבועה. קחו רגע ותנסו לחשוב איך מוכיחים את זה. ועוד יותר מכך – איך הלמה של אוגדן תהיה קשורה לכך. לי עצמי אין מושג, כשאני כותב את הפוסט; הספקתי כבר לשכוח איך זה עובד, ולכן זה הולך להרגיש לי (שקורא את ההוכחה תוך כדי הכתיבה) כמו קסם בדיוק כמו לכם. כרגע אני לא ממש רואה קשר.

אוקיי, בואו נתחיל (קראתי את ההוכחה – וואו, מגניב!). נניח ש-$latex n$ הוא הקבוע שהלמה של אוגדן מבטיחה לנו (וניקח $latex n>3$ כי נזדקק בהמשך לכך ש-$latex 2n<n!$). המילה שאראה שחייבים להיות לה שני עצי גזירה שונים תהיה באופן ממש אינטואיטיבי המילה $latex a^{n+n!}b^{n+n!}c^{n+n!}$, כאשר $latex n!$ ($latex n$ עצרת), כזכור, הוא קיצור ל-$latex 1\cdot2\cdots n$ (במבט ראשון זה נראה לא קשור בעליל, אבל עצרת היא מספר שימושי שצץ בהרבה הוכחות בגלל התכונה הנחמדה שלה שהיא מתחלקת בכל מספר מ-1 ועד $latex n$).

כדי להראות את שני עצי הגזירה השונים הללו, ניקח שתי מילים שונות שהן תת-מילים של המילה שלנו, נפעיל עליהן את הלמה של אוגדן ונראה שאפשר "לנפח" אותן כדי לקבל את המילה שלנו, ושני הניפוחים חייבים להיות שונים באופיים ולכן לא יכולים להתאים לאותו עץ גזירה. נתחיל מהמילה $latex a^{n}b^{n}c^{n+n!}$. הלמה של אוגדן מבקשת מאיתנו לסמן לפחות $latex n$ אותיות, אז בואו נסמן בדיוק את ה-$latex a$-ים במילה. עכשיו קיבלנו פירוק $latex uvwxy$ של המילה, שבו $latex w$ כולל לפחות אות מסומנת אחת – כלומר, $latex w$ מוכל בחלק של ה-$latex a$-ים. לכן גם $latex u,v$ שבאות לפני $latex w$ מוכלות בחלק של ה-$latex a$-ים (אבל שימו לב – שום דבר לא מונע מ-$latex u,v$ להיות שתיהן ריקות; הלמה של אוגדן לא מבטיחה שיהיה בהן משהו).

בואו נבין עכשיו איך $latex x$ נראה. הוא בא אחרי $latex w$ ולכן יכול להיות בעצם בכל מקום במילה, אבל אם $latex x$ יכלול שתי אותיות שונות, $latex uv^{2}wx^{2}y$ בהכרח לא תהיה שייכת לשפה (כי השפה כוללת רק מילים שבהן קודם באים כל ה-$latex a$-ים, אחר כך כל ה-$latex b$-ים ובסוף כל ה-$latex c$-ים; אם $latex x$ כולל שתי אותיות שונות ונחזור עליו פעמיים, נראה אותיות נעלמות ואז חוזרות שוב). לכן $latex x$ מורכב כולו מאחת משלוש האותיות האפשריות (וייתכן שהוא ריק).

עכשיו, בואו נסמן את הגדלים של החלקים המנופחים: $latex \left|v\right|=p,\left|x\right|=q$. אז $latex p,q\ge0$ ובנוסף אנחנו יודעים ש-$latex 0<p+q\le2n<n!$. כמו כן אפשר עכשיו לכתוב את המבנה של החלקים הללו: $latex v=a^{p}$ תמיד, בזמן ש-$latex x$ שייך לאחת משלוש צורות אפשריות: $latex x=a^{q}$ או $latex x=b^{q}$ או $latex x=c^{q}$.

עכשיו בואו ונראה מה קורה כשמנפחים את המילה, ונבדיל בין אפשרויות שונות על בסיס הערכים הפוטנציאליים של $latex x$.

אם $latex x=a^{q}$ אז $latex uv^{2}wx^{2}y=a^{n+p+q}b^{n}c^{n+n!}$ וזו בבירור לא מילה בשפה כי מספר ה-$latex a$-ים שונה ממספר ה-$latex b$-ים ששונה ממספר ה-$latex c$-ים. מסקנה: $latex x\ne a^{q}$. מכאן אנחנו לומדים משהו קריטי להמשך – $latex x$ לא כולל אותיות מסומנות, ולכן $latex v$ חייב לכלול כאלו, כלומר $latex \left|v\right|=p>0$.

אם $latex x=c^{q}$ אז $latex uv^{2}wx^{2}y=a^{n+p}b^{n}c^{n+n!+q}$. כבר ראינו ש-$latex p>0$ ולכן $latex n+p\ne n$ ושוב קיבלנו מילה שאינה בשפה.

המסקנה היא שבהכרח $latex x=b^{q}$, כדי שיוכל "לאזן" את $latex v$: $latex uv^{2}wx^{2}y=a^{n+p}b^{n+q}c^{n+n!}$. מכיוון שהמילה הזו חייבת להיות שייכת לשפה (אחרת נגיע לסתירה כללית), בהכרח $latex p=q$. זה אומר שכשאנחנו מנפחים את המילה, אנחנו מגדילים את מספר ה-$latex a$-ים וה-$latex b$-ים באותה כמות בדיוק – בואו ננפח עד שנגיע ל-$latex n+n!$. כאן השימוש בעצרת משתלם לנו – אנחנו לא יודעים מהו $latex p$, אבל אנחנו יודעים ש-$latex p\le n$ (כי כבר ראינו ש-$latex v$ כלול כולו ב-$latex a$-ים ויש רק $latex n$ כאלו) ולכן $latex p|n!$, כלומר קיים $latex t$ כך ש-$latex pt=n!$. וכעת: $latex uv^{t+1}wx^{t+1}y=a^{n+pt}b^{n+pt}c^{n+n!}=a^{n+n!}b^{n+n!}c^{n+n!}$. הוכחנו שהדקדוק שלנו יודע לגזור את $latex a^{n+n!}b^{n+n!}c^{n+n!}$.

בואו נחדד את מה שראינו, תוך שאנו זוכרים מה אוגדן בדיוק אומר – הוא אומר שקיים משתנה $latex A$ כך ש-$latex S\Rightarrow^{*}uAy\Rightarrow^{*}uvAxy\Rightarrow^{*}uv^{t+1}Ax^{t+1}y\Rightarrow^{*}uv^{t+1}wx^{t+1}y=a^{n+n!}b^{n+n!}c^{n+n!}$. מה שחשוב כאן הוא ש-$latex A$ מייצר את $latex v,x$ ולכן גוזר רק את האותיות $latex a,b$.

עכשיו אפשר לחזור על כל מה שאמרנו עד כה אבל כשמתחילים מהמילה $latex a^{n+n!}b^{n}c^{n}$ שגם כן שייכת לשפה. הלמה של אוגדן תראה לנו בסופו של דבר שקיים משתנה $latex A^{\prime}$ כך ש-

$latex S\Rightarrow^{*}u^{\prime}A^{\prime}y^{\prime}\Rightarrow^{*}u^{\prime}v^{\prime}A^{\prime}x^{\prime}y^{\prime}\Rightarrow^{*}u^{\prime}\left(v^{\prime}\right)^{t+1}A^{\prime}\left(x^{\prime}\right)^{t+1}y^{\prime}\Rightarrow^{*}u^{\prime}\left(v^{\prime}\right)^{t+1}w^{\prime}\left(x^{\prime}\right)^{t+1}y^{\prime}=a^{n+n!}b^{n+n!}c^{n+n!}$

רק שהפעם יצא ש-$latex A^{\prime}$ גוזר רק $latex b$-ים ו-$latex c$-ים.

קיבלנו שתי גזירות של $latex a^{n+n!}b^{n+n!}c^{n+n!}$ בדקדוק שלנו. אבל האם הן באמת מתאימות לעצי גזירה שונים? אינטואיטיבית כנראה כבר ברור שכן כי איכשהו $latex A$ ו-$latex A^{\prime}$ לא מסתדרים לנו טוב ביחד, אבל צריך לתת פה נימוק פורמלי יותר. ראשית נשים לב לכך ש-$latex A$ לא יודעת לגזור את $latex A^{\prime}$ וגם ההפך נכון (כי $latex A$ גוזרת רק $latex a,b$ בעץ הגזירה שלה, ולכן אם $latex A^{\prime}$ הייתה בעץ הגזירה, אז היו גם $latex c$-ים בפנים). זה אומר שאם שתי הגזירות שלעיל הן גזירה אחת, אז על ידי כך שנבצע את הגזירה הזו אבל "נתאפק" ולא נגזור לא את $latex A$ ולא את $latex A^{\prime}$ אחרי שהן מופיעות לראשונה, נקבל את הדבר הבא: $latex S\Rightarrow^{*}t_{1}At_{2}A^{\prime}t_{3}$. עכשיו אני יכול להמשיך ולגזור את $latex A,A^{\prime}$ כמה פעמים שנרצה לפני שנגזור אותן ל-$latex w,w^{\prime}$ – בואו נגזור את $latex A$ במשך $latex i$ פעמים ואת $latex A^{\prime}$ במשך $latex j$ פעמים, עבור $latex i,j$ שמשתלמים לנו (נראה עוד מעט מה זה אומר). נקבל את המילה הבאה, ששייכת כמובן לשפה $latex L$ כי היא נגזרה על ידי הדקדוק:

$latex t_{1}v^{i}wx^{i}t_{2}\left(v^{\prime}\right)^{j}w^{\prime}\left(x^{\prime}\right)^{j}t_{3}$

מה שאני רוצה לומר הוא שעבור $latex i,j$ גדולים מספיק, מספר ה-$latex b$-ים במילה הזו בהכרח יהיה גדול ממספר ה-$latex a$-ים וגם ממספר ה-$latex c$-ים, ולכן המילה לא תהיה שייכת לשפה. כדי לראות את זה, בואו נחשב כמה אותיות מכל סוג יש במילה הזו. לא נוכל לדעת במדויק, אבל נוכל לקבל חסם. למשל, אנחנו יודעים שהמקום שבו ה-$latex a$-ים נגמרים הוא לכל היותר בתוך $latex w$, כי כבר ראינו ש-$latex x$ חייב להכיל רק $latex b$-ים. לכן מספר ה-$latex a$-ים במילה חסום מלמעלה על ידי $latex \left|t_{1}\right|+i\left|v\right|+\left|w\right|$. באופן דומה, מספר ה-$latex c$-ים במילה חסום מלמעלה על ידי $latex \left|t_{3}\right|+j\left|x^{\prime}\right|+\left|w^{\prime}\right|$. לעומת זאת, את מספר ה-$latex b$-ים במילה אני יכול לחסום מלמטה: אני יודע שלכל הפחות כל $latex x$ הוא $latex b$-ים, ושכל $latex v^{\prime}$ הוא $latex b$-ים, ולכן גם $latex t_{2}$ שכלוא בין שניהם חייב להיות כולו $latex b$-ים, ולכן קיבלנו שמספר ה-$latex b$-ים הוא לפחות $latex i\left|x\right|+\left|t_{2}\right|+j\left|v^{\prime}\right|$. ואני יודע גם קצת יותר מזה – אני יודע ש-$latex \left|x\right|=\left|v\right|$ וש-$latex \left|v^{\prime}\right|=\left|x^{\prime}\right|$.

יש כאן כבר יותר מדי אותיות ותגים וסימונים, אז בואו נשנה אותם כדי שיהיה יותר קל להבין מה קורה פה. נסמן ב-$latex f\left(\sigma\right)$ את מספר המופעים של $latex \sigma$. אז יש לנו את המשוואות הבאות:

$latex f\left(a\right)\le A+i\alpha$

$latex f\left(c\right)\le C+j\beta$

$latex f\left(b\right)\ge B+i\alpha+j\beta$

כאשר $latex A,B,C,\alpha,\beta$ הם קבועים חיוביים כלשהם. עכשיו הרבה יותר קל לראות מה קורה פה. כך למשל נניח שאנו רוצים להבטיח ש-$latex f\left(a\right)<f\left(b\right)$, כלומר ש-$latex A+i\alpha<B+i\alpha+j\beta$; נעביר אגפים ונקבל שצריך להתקיים $latex j>\frac{A-B}{\beta}$. באופן דומה כדי שיתקיים $latex f\left(c\right)<f\left(b\right)$ צריך להתקיים $latex i>\frac{C-B}{\alpha}$. שימו לב שהחסמים הללו על הערכים של $latex i,j$ לא תלויים זה בזה, כך שאין לנו בעיה לבחור ערכים מספיק גדולים עבור שניהם, מה שיסיים את ההוכחה – הראינו שאם אין למילה שלנו שני עצי גזירה שונים אלא עץ גזירה יחיד, אז אפשר לנצל את עץ הגזירה הזה כדי לגזור מילה אחרת שהיא בבירור לא בשפה. זה מסיים את ההוכחה כולה.

אני מקווה שלא כולם הלכו לאיבוד בים הפרטים הטכניים. הם לא היו נוראיים כל כך, לדעתי; אולי בגלל שאני כותב את הפוסט ולכן מוכרח להרגיש "בידיים" מה הולך שם (בקריאה נטו של פרטים טכניים תמיד יותר קל ללכת לאיבוד). התוצאה אינה כה מסובכת מבחינה רעיונית – בעזרת הלמה של אוגדן יש לנו שליטה רבה יותר על האופן שבו מילים מנופחות, וכדי להראות שלא קיים דקדוק חד משמעי אנחנו מייצרים את אותה מילה בשתי דרכים שונות מהותית על ידי ניפוחים שונים של מילים פשוטות יותר. לטעמי זו הייתה תוצאה יפה מאוד.

5 תגובות על הפוסט “שפות חסרות הקשר – למת הניפוח, הלמה של אוגדן ושפות רב משמעיות

  1. שאלה שהיא פחות על הבנה ויותר על (לא יודע מה) – למה למת הניפוח היא למה ולא משפט? נראה שזה כלי די חזק, גם עבור שפות רגולריות וגם עבור דקדוקים חסרי הקשר. אומנם הוא לא דו-כיווני ולא תמיד יכולה לעזור, אבל בכל זאת…
    מהמעט שאני יודע, למות הן בדר"כ טיעונים קטנים בדרך לאיזשהו משפט רציני. לי נראה שלא כך המקרה כאן.

  2. התשובה הבסיסית היא שהרבה משפטים חשובים נקראים למות כי ככה, קורה. למשל הלמה של צורן. לעתים קרובות בהקשר המקורי שבו המשפט מתואר הוא קיים כדי להוביל אותנו למטרה עיקרית יותר ולכן קוראים לו שם למה, והשם משתרש.

  3. פוסט מעולה! לא הכרתי את הלמה המורחבת ואת השימוש שעשית בה.
    שני ניטפוקים – בפסקה שבה אתה מסביר איך מגיעים לצורה הנורמלית של חומסקי יש יותר מדי C ואז אתה מתבלבל ביניהם (צריכים להיות רק 2).
    בפסקה שבה אתה מסביר את למת הניפוח ( לפני התמונה ) כתוב שלפני ואחרי w יש u, w והכוונה לu, x.

  4. כפי ששמעתי פעם:
    משפט הוא כמו התמונה שתולים על הקיר בסלון. זה מאוד יפה ונחמד.
    למה היא כמו הפטיש שנמצא בארגז הכלים. משתמשים בה הרבה בשביל המון תרגילים והוכחות…

כתיבת תגובה

האימייל לא יוצג באתר.