דיפ פייק הינה טכנולוגיה חדשנית, המציעה אפשרויות מלהיבות ומרתקות. אך לצד ההזדמנויות והיצירתיות האמנותית, היא מציבה אתגרים ופוטנציאל לניצול לרעה שלה. לכן יש לנקוט צעדים למניעת פגיעה באנשים, זאת מעבר למענה המשפטי שיידרש במטרה למנוע ולהפחית את סכנותיה

פורסם בעיתון The Marker

התפתחות הבינה המלאכותית וחדירתה לחיינו היא לא רק פריצת דרך טכנולוגית, אלא מהווה מהפכה של ממש. היא תוארה כ”מהפכה התעשייתית הרביעית” ויש ביכולתה להגדיר מחדש היבטים רבים של קיומנו ולשנותם מן היסוד. כמו כל מהפכה טכנולוגית, לצד ההזדמנויות האדירות, עלולות להופיע סכנות משמעותיות, אשר יש להיערך אליהן. אחד החששות משימוש בטכנולוגיה זו כרוך בטכנולוגיית ה”דיפ פייק”, המתארת יישום טכנולוגי מבוסס בינה מלאכותית אשר מאפשר יצירת תוכן לרבות תמונות, סרטוני וידיאו וקטעי קול מזוייפים, באופן הנחזה להיות אותנטי.

זיוף, ובכלל זאת זיוף יצירות אמנות אינה תופעה חדשה. אך האפשרות ליצור תמונות, סרטונים וקטעי קול מזוייפים הואצה לאחרונה בשל זמינותם של כלי AI ופשטות השימוש בהם. כך למשל, ניתן להשתיל פנים של אדם בסרטון בו לא הופיע במקור, או לשנות בצורה מניפולטיבית את המלל המופיע בסרטון. דוגמאות בולטות מהעת האחרונה אשר עוררו תהודה רבה ברחבי העולם, כוללות בין היתר, תמונות מפוברקות של נשיא ארה”ב לשעבר, דונלד טראמפ, מתנגד למעצר ומנסה לברוח משוטרים. תמונות אלו זכו למיליוני צפיות.

דיפ פייק נתפס כתיעוד מהימן של האירועים במציאות, ומשכך, אנשים נוטים להאמין לדברים, הנחזים להיות אמיתיים ואותנטיים. אלא שכיום ההבחנה בין מה שאמיתי לבין תוכן שנוצר על ידי המכונה הופך לקשה יותר ומיטשטש.

השימושים המגוונים של הטכנולוגיה

טכנולוגיית דיפ פייק יכולה לשמש למטרות לגיטימיות ואף מועילות.

 בתעשיית הקולנוע והטלוויזיה יש בכוחה לאפשר לשחקנים “לדבר” בשפות זרות, תוך התאמת תנועות השפתיים למלל החדש. כמו כן, הטכנולוגיה מאפשרת הימנעות מחשיפת זהות המצולמים.

 בתחום הרפואה הטכנולוגיה מאפשרת לשחזר את קולם של מטופלים אשר איבדו את יכולת הדיבור. כך למשל היה במקרה של השחקן ואל קילמר, לאחר שזה חלה בסרטן הגרון.

 בתחום החינוך הטכנולוגיה מאפשרת “להשיב לחיים” דמויות היסטוריות ולקיים עימן “ראיונות” או סרטונים. טכנולוגיית הבינה המלאכותית והדיפ פייק מחוללת שינוי של ממש בתפיסת המוות, ומאפשרת כיום “להחיות” אנשים שהלכו לעולמם.

אלא שלצד זאת, הטכנולוגיה מעלה חשש לגבי הפוטנציאל לשימוש לרעה, ועלולה לשמש ליישומים מטרידים, זדוניים ומסוכנים: יצירת דיסאינפורמציה, הפרת פרטיות, יצירת סרטונים פורנוגרפיים מזוייפים, יצירת דיפ פייק לצרכי ביצוע מעשי מרמה והונאה, השפעה על הפוליטיקה והליכי בחירות ואפילו פגיעה בביטחון הלאומי. לא לחינם היא תוארה כ”איום מיידי על הדמוקרטיה”. שימוש נרחב בטכנולוגיה זו עלול לטשטש את הגבול בין מציאות לדמיון או בין אמת לשקר.

נסקור כמה מהשימושים לרעה:

 מעשי מרמה והונאה – מקרה חלוצי של הונאה באמצעות דיפ פייק קולי, בוצע באנגליה עוד בשנת 2019, וגרם להעברה של 243,000$ דולר. במקרה אחר, בשנת 2020, הונאה מבוססת דיפ פייק קולי, הובילה לגניבה של 35 מיליון דולר מבנק באיחוד האמירויות. לאחרונה דווח על עובד בחברת שירותים פיננסיים בהונג קונג, שהעביר כ-25 מיליון דולר, באמצעות 15 העברות כספים, עקב מה שהתברר כדיפ פייק. מקרים אלו צריכים לשמש כנורת אזהרה לעסקים.

 פורנוגרפיה – שימוש נפוץ ביותר של טכנולוגיה זו הינו בתעשיית הפורנו. לאחרונה, עוררה הדים רבים פרשה במסגרתה הופצו תמונות אינטימיות אשר נחזו להיות של כוכבת הפופ המובילה טיילור סוויפט, שנוצרו באמצעות טכנולוגיית דיפ פייק. אחת מהן נצפתה כ-47 מיליון פעמים בטרם הוסרה. שימוש זה עלול לגרום לנזקים כבדים לכל אדם ולקטינים בפרט.

 שימוש פוליטי והשפעה על הליכי בחירות – שימוש בטכנולוגיה נעשה בהקשר למלחמת רוסיה-אוקראינה, כאשר סרטון וידיאו שהופק באמצעות טכנולוגיה זו הציג את נשיא אוקראינה זלנסקי כמי שכביכול אומר לאזרחיו להיכנע לרוסיה. שימוש בטכנולוגיה יכול להביא להטיית הליכי בחירות ושיבוש הדמוקרטיה.

האסדרה המשפטית של טכנולוגיית “דיפ פייק”

האתגרים המשפטיים נובעים, בין היתר, מקצב הההתפתחות הטכנולוגי המהיר ומהיכולות המוגבלות להתמודד עםטכנולוגיה זו באמצעים טכנולוגיים. מדינות שונות כבר נקטו בצעדים להגבלת השימושים הבעייתיים והחלו לאסור שימוש בכלי בינה מלאכותית כדי ליצור דיפ פייק, אך האסדרה המשפטית של טכנולוגיה זו הינה עודנה בראשיתה. נסקור כמה דוגמאות:

 בטקסס נקבע בשנת 2019 איסור פלילי על יצירה או הפצה של תכני דיפ פייק ב-30 הימים שלפני מועד הבחירות, ככל שאלה נועדו לפגוע במועמד לבחירות.

 בקליפורניה התקבלה חקיקה מקיפה יותר כנגד התופעה, ובמסגרתה חוקק חוק האוסר על הפצת סרטונים שעברו מניפולציה במטרה לפגוע בדמותו של מועמד פוליטי, או להשפיע על דעת המצביעים בטווח של 60 יום לפני הבחירות; וכן חוק המעניק לתושבים את הזכות לתבוע אדם שיצר סרטוני דיפ פייק תוך שימוש בדמותם, ללא הסכמתם, בגין הנזקים שנגרמו להם.

 סין הציגה עוד בשנת 2019 חוקים המחייבים אנשים וחברות העושים שימוש בדיפ פייק לחשוף זאת. כך למשל, כל סרטון שנוצר באמצעות בינה מלאכותית, צריך להיות מסומן ככזה באופן ברור. הפרת התנאי תחשוף את יוצר התוכן, כמו גם את האתר המארח, לדין פלילי. רגולטור המרחב הקיברנטי של סין פירסם בשנת 2023 הנחיות לשימוש בטכנולוגיית דיפ פייק.

 בריטניה חוקקה לאחרונה חוק חדש, The Online Safety Bill, לפיו תהא זו עבירה חמורה לשתף תמונות אינטימיות שלא בהסכמה, תוך כוונה לגרום למצוקה. החוק כולל כעת במפורש סרטונים שכאלה, אשר נוצרו באמצעות דיפ פייק, כצורה של ניצול ואף התעללות מינית.

  • ארה”ב הציגה בחודש ינואר 2024 הידוע כ –Fake Replicas And Unauthorized Duplications (NO AI FRAUD) No Artificial Intelligence אשר נועד להגן על אנשים מפני שימוש בדמותם ובקולם לצורך יצירת סרטוני דיפ פייק.

 האיחוד האירופי חוקק את חוק ה- EU AI ACT, שהינוהחוק המקיף ביותר לאסדרת תחום הבינה המלאכותית. טיוטת החוק קובעת כי מערכות בינה מלאכותית היוצרות או מבצעות מניפולציה (Manipulation) על תוכן כתוב, קולי או חזותי, ומציגות תוכן זה באופן הנחזה לאותנטי או אמיתי, ואשר מציגות אנשים הנראים או עושים דברים שהם לא אמרו או עשו, ללא הסכמתם (Deep fake) – מחוייבות לסמן באופן ברור וגלוי כי מדובר בתוכן שנוצר או בוצעת באופן מלאכותית. פרק IV לחוק שכותרתו “חובות שקיפות” (Transparency obligation) קובע דרישות שקיפות בנוגע למערכות AI המבצעות מניפולציה על תכנים מסוגים שונים.

פתרונות טכנולוגיים וחינוכיים

לצד ההתמודדות המשפטית ואסדרה של הטכנולוגיה, הדרך להתמודדות עם אתגרים חדשים אלה טמונה באפיקים נוספים, כמו פתרונות טכנולוגיים ההולכים ומשתכללים, מתפתחים כל העת, לרבות טכניקות לזיהוי, כלים לזיהוי פורנזי וחסימה או הסרה של תוכן כזה. כן קיימת חשיבות לחינוך לאוריינות דיגיטלית אשר תסייע לזהות זיופים מעין אלה, ולצרוך תוכן בצורה ביקורתית.

לסיכום, דיפ פייק הינה טכנולוגיה מרתקת, המציעה אפשרויות מלהיבות ומרתקות. אך לצד הגנה על חופש הביטוי והיצירתיות האמנותית, היא מציבה אתגרים ופוטנציאל לניצול לרעה שלה, ועל כן, יש לנקוט צעדים למניעת ניצול לרעה של הטכנולוגיה ופגיעה באנשים, וזאת מעבר למענה המשפטי שעולם המשפט יידרש לתת במטרה למנוע ולהפחית סכנות אלה.