מלחמת המחוללים מאת בועז לביא
בסוף ספטמבר דיווח אתר תחקירי הטכנולוגיה 404 Media כי חיפוש גוגל של צילום העיתונות הידוע בשם "Tank Man", מניב, כתוצאה ראשונה, תמונה שנוצרה באמצעות AI. הצילום המכונה "Tank Man" – שם קוד כללי לאוסף צילומים שצולמו על-ידי צלמים שונים באותו הזמן, ואשר תיעדו אדם בודד העומד מול שיירת טנקים בכיכר טיין-אן-מן יום אחרי הטבח שביצעה שם ממשלת סין – מהווה סמל לתפקידה של עיתונות בעתות משבר; דימוי טעון של איש יחיד, העוצר במו גופו את מכונות המתכת של שלטון דיקטטורי. לכן, מן הסתם, הוא גם הפך למקור השראה עבור משתמשים במחוללי תמונות מבוססי AI, שהשתפרו פלאים בעת האחרונה: תמונת סלפי מומצאת, שנוצרה כביכול על-ידי אותו גבר אנונימי בכיכר טיין-אן-מן, עלתה לפורום של Reddit המוקדש למחולל התמונות MidJourney, והפכה ויראלית. אלגוריתם החיפוש של גוגל העניק לה בעקבות זאת דירוג גבוה במיוחד, והיא הותירה מאחור אף את הצילומים האמיתיים מן האירוע. עבור עין של מי שאינו איש או אשת מקצוע מיומנים, התמונה מ-Reddit נראית אכן מציאותית מאוד, ואם אתר התחקירים לא היה חושף את העניין ומדווח עליו לגוגל – שהסירה את היצירה באופן ידני מראש רשימת התוצאות – יתכן שהצילום המלאכותי היה הופך בעצמו לאיקוני; עם הזמן והשנים היה מיטשטש אולי הגבול – שנחצה בו – בין בדיון לעיתונות.
למלחמה שנפתחה בשבעה באוקטובר, ולטבח שהתחולל בעוטף עזה באותו יום, אין לעת עתה דימוי עיתונאי יחיד שמייצג אותה. לכן גם אין מי שינסה ליצור דימוי מזויף בהשראתו. אבל פריחתם של מחוללי התמונות משפיעה כבר השפעה של ממש על האופן שבו נתפסים אירועים בשטח. שום מגבלה לא חלה על מי שמשתמש במחוללים ומפרסם את יצירותיו ברשת – ועל כן, מטעם שני הצדדים הלוחמים (או לפחות מטעם מי שמצדד בצד זה או אחר) מופקים דימויים שנועדו להמחיש, אם לא לפברק, את מה שמתחולל במציאות. בדימוי דרמטי אחד כזה, שזכה לחשיפה גדולה ברשתות החברתיות בארץ, הופיע חייל במדי צה"ל – או משהו שמחקה אותם – על רקע הריסות, ובזרועותיו שני תינוקות, שניצלו כביכול מן החורבן. מי שבקי ביכולותיהם של הכלים יודע לזהות בקלות יחסית את הסימנים שמעידים על ג'נרוט, כלומר על כך שמדובר בתוצר של מחולל דימויים: עיוות כלשהו באצבעות הידיים, למשל, מסגיר את הזיוף. אך רק אחוז קטן בקרב מי שישתף תמונה כזו, או ייחשף אליה, מודע לכך שהיא מפוברקת. ואפילו בקרב אלו שיודעים או חושדים שמדובר בפברוק, לא תמיד זה משנה. אם הדימוי מרגש מספיק, הוא עושה את העבודה; היעד של פרסום ברשתות הוא הרי לייקים ותגובות. ויראליות.
אבל כיצד משפיע דימוי ספציפי כזה, על תמונת המציאות? האם יש משמעות לכך שהאירוע הספציפי שמתואר בו מעולם לא התרחש, וכי מדובר בעצם ב-"צילום אילוסטרציה" של משאלת לב? ההשפעה הנקודתית אולי אינה דרמטית – משתפי הדימוי לא יטענו בהכרח שיש בו ערך חדשותי – אבל ההשפעה ארוכת הטווח של חשיפה לדימויים כמו-צילומיים, שאינם משקפים מציאות, פוגמת ביכולת האנושית הקולקטיבית – הנמוכה גם כך – להבדיל בין עובדה לבדיה. סף הגירוי עולה (כלומר, צילום עיתונות אותנטי שאינו דרמטי כמו צילום מפוברק יזכה לפחות תשומת לב), והקרקע הופכת להיות מוכנה לפברוק בקנה מידה גדול יותר.
מן הצד הנגדי, דוגמה כזו לטשטוש גבולות התרחשה זמן קצר לאחר תחילת הלחימה, כאשר חברת Adobe, המאפשרת רכישת תמונות סטוק כמו-ריאליסטיות שנוצרו באמצעות AI, מתוך קטלוג שלא מבחין בצורה ברורה בין הפורמטים, הציעה למכירה צילומים מג'ונרטים של הפצצות צה"ל בעזה. הביקוש הרב לכיסוי עיתונאי מן השטח, שלא קיבל תמיד מענה מהיר, מצא לפתע פתרון. וכך, מבלי ליידע את קוראיהם שהם משתמשים בדימוי מפוברק, ואולי אפילו מבלי שהבחינו בעצמם בעניין, אתרים רבים – וביניהם אתר החדשות הבריטי SKY news (כך דיווח האתר האוסטרלי העצמאי Crikey) הציגו צילום מזויף, כאסמכתא לאירוע אמיתי.
אולם מעבר לשיבוש הנקודתי של ההבחנה בין האמיתי לבדוי, פריחתם של המחוללים יצרה בעיה מסדר גודל חדש. כיוון שרוב צרכני המידע ברשתות לא עוקבים אחר ההתפתחויות האחרונות ביכולותיהם של כלי הבינה המלאכותית (מה גם שאלו מתחזקים על בסיס דו-שבועי), כל העלאה של חשד על פיו צילום או וידאו עלול להיות מיוצר על-ידי AI – הופכת בעצמה לכלי נשק תעמולתי. באופן זה, גם את התיעוד המפורט שמציגה ישראל על אודות מעשי הזוועה מן ה-10.7, אפשר לפסול באופן גורף בתור פברוק באמצעות בינה מלאכותית, מבלי להציג כל ראיה לכך – וזו בדיוק דרך הפעולה של פעילים אנטי-ישראלים ב-X (לשעבר טוויטר). העובדה שישראל ידועה כמעצמה טכנולוגית, משמשת כמין ראיה נסיבתית, לחיזוק טענות ממין זה. מוטלת כאן פצצת אטום תעמולתית, משמידת כל: אם כל בדל של ראיה ויזואלית (או קולית) יכול להיות מיוצר, עקרונית, על-ידי בינה מלאכותית – הרי שאין כבר כל יכולת להסתמך על תיעוד בצורותיו המוכרות, ובוודאי שלא להאמין למה שמתואר בו.
במובן זה, המציאות של מלחמות התעמולה, עקפה את המציאות הקונקרטית; היא עצמה כבר מבוססת על טענת שווא עקרונית, בדבר יכולות הבינה המלאכותית ברגע זה. זהו אח חורג של "טיעון הסימולציה", הפופולרי במחוזות ההייטק (טיעון שלפיו כולנו חיים בסימולציית מחשב שיצרה איזו בינת-על): גם אם המציאות עצמה אינה סימולציה, הרי שכל דבר שנראה או נשמע כמוה, דווקא כן יכול להיות מיוצר, כלומר מסומלץ, באופן מושלם על-ידי מחשב. כבר עכשיו.
האם תימצא ישועה לצילום ככלי תיעודי אמין? האם ניתן לדמיין ישות ניטרלית, שתכריע את הכף בשאלות בדבר האותנטיות של צילום ספציפי, ותספק קרקע יציבה לדרוך עליה, אסמכתא לאמת? בעבר, היה זה תפקידם של כלי התקשורת, אבל אלו איבדו את מרכזיותם, ואת מקומם תפסו הרשתות החברתיות. שם מוצאים כל אחת ואחד את תיבת התהודה שמשקפת את אמונותיהם, ואף מקצינה אותן. נידונו, בשלב זה, לפסוע על קו השבר, כל קהילה לעצמה, מול שיירות של מכונות גנרטיביות, ושל עולם דימויים שיצא משליטה.
בועז לביא כותב על בינה מלאכותית עבור מוסף ״הארץ", מגיש את הפודקאסט "עושים תוכנה" (זוכה פרס פודקאסט השנה בתחום ההייטק ל-2022, מטעם גיקטיים) ומרצה בתכנית לתואר שני בעיצוב תעשייתי בבצלאל. הוא חיבר בין השאר את הרומן הגרפי The Divine (עם המאיירים אסף ותומר חנוכה) שהיה רב מכר של הניו-יורק טיימס, ואת המחזה "נפילים" (עם יונתן לוי) שעלה בפסטיבל ישראל ובתיאטרון הקאמרי.