ההטמעה המואצת של בינה מלאכותית הולידה את הצורך בבקרה על הפיתוח והשימוש בה, במטרה למנוע סיכונים בנושאים כמו פרטיות, זכויות יוצרים, תעסוקה וזכויות אדם. על החוק החדש והתקדימי של האיחוד האירופי בנושא בינה מלאכותית (EU AI ACT) שבא להתמודד עם סוגיות אלה ולמצב את האיחוד כנושא דגל האסדרה בתחום.

הבינה המלאכותית שחדרה לחיינו בסערה בשנה האחרונה, הינה בעלת חשיבות מרחיקת לכת על עתיד האנושות, והיא תוארה כ”המהפכה התעשייתית הרביעית”. הישגים שונים של בינה מלאכותית, שלא ניתן היה להעלות על הדעת בעבר, הינם כעת בבחינת מציאות מתפתחת ומרתקת. התחום חוצה מגזרים והוא ממשיך להתפתח בקצב מהיר במיוחד. ואולם, למרות היתרונות המובנים בטכנולוגיה מתפתחת זו, התפתחויות אלה יצרו לא מעט חששות מחוסר הרגולציה בתחום ומהסכנות הטמונות בבינה מלאכותית, וברור שנדרשת בקרה על הפיתוח ועל השימוש בה, במטרה למנוע סיכונים העלולים להיווצר כתוצאה מהשימוש בה – החל מנושא הפרטיות, דרך זכויות יוצרים, אובדן מקומות עבודה, ועד לפגיעה בזכויות אדם וחירויות יסוד.

הבינה המלאכותית במובן זה היא טכנולוגיה מתפרצת שיש להיערך אליה באמצעות אסטרטגיה לאומית ומדיניות רגולטורית. ברחבי העולם אנו עדים כיום למרוץ עולמי של חקיקה המבקשת לאסדר את הפיתוח והשימוש בטכנולוגיות בינה מלאכותית. האיחוד האירופי הינו גורם מוביל ביצירת אסדרה של בינה מלאכותית וחשף את הצעת החוק עוד במהלך שנת 2021. במובן זה, אירופה מיצבה את עצמה כחלוצה וכסמן רגולטורי, תוך הבנת חשיבות תפקידה כקובעת סטנדרטים גלובליים. שחקנים מובילים בתחום, לצד האיחוד האירופי, הינם ארה”ב, סין ובריטניה.

יוזמת דגל לאסדרת טכנולוגיות AI

בדצמבר 2023 נפל דבר באיחוד האירופי. לאחר דיונים רבים ומשא ומתן מרתוני של 36 שעות בין הגופים השונים (EU Commissions, Parliament, Council),הוסכם על נוסח מתוקן של מסגרת משפטית מקיפה בעולם לאסדרת בינה מלאכותית: חוק הבינה המלאכותית של האיחוד האירופי (EU AI ACT). החוק הוצע לראשונה בחודש אפריל 2021, הפרלמנט האירופי אישר את טיוטת החוק בחודש יוני 2023, וחוק זה מגיע כעת לתצורתו הסופית.

ה- EU AI ACT הינה יוזמת דגל להסדרת טכנולוגיות AI. היא פועלת לפי גישה מבוססת סיכונים, כאשר הרעיון המרכזי הוא להתייחס לבינה המלאכותית בהתבסס על יכולתה לגרום נזק לחברה – ככל שהסיכון גבוה יותר, כך הכללים מחמירים יותר. לפיכך, הוגדרו מספר רמות של מערכות בינה מלאכותית: החל מסיכון מינימלי, דרך החלת משטר קפדני במקרים של שימוש בסיכון גבוה, ועד למערכות ברמת סיכון אשר אינו מקובל (Unacceptable risk) – אשר שימוש בהן ייאסר.

האירוע הינו בעל חשיבות ומהווה ציון דרך במהלכים החקיקתיים לאסדרת טכנולוגיית הבינה המלאכותית. נציב האיחוד האירופי, תיירי ברטון, כתב ברשת החברתית X :”היסטוריה! האיחוד האירופי הופך ליבשת הראשונה שקבעה כללים ברורים לשימוש בבינה מלאכותית”. קרמה ארטיגס (Carme Artigas) מזכירת המדינה הספרדית לדיגיטליזציה ובינה מלאכותית, ציינה, כי “זהו הישג היסטורי ואבן דרך ענקית לקראת העתיד! ההסכם של היום מתייחס למעשה לאתגר עולמי בסביבה טכנולוגית המתפתחת במהירות ולתחום מפתח לעתיד החברות והכלכלות שלנו. ובמאמץ הזה, הצלחנו לשמור על איזון עדין ביותר: חיזוק חדשנות ואימוץ של בינה מלאכותית ברחבי אירופה, תוך כיבוד מלא של זכויות היסוד של אזרחינו”.

אז מהם המרכיבים העיקריים של חוק הבינה המלאכותית של האיחוד האירופי?

הדרישות של חוק הבינה המלאכותית של האיחוד האירופי שונות בהתאם לרמת הסיכון שמציבה מערכת הבינה המלאכותית. כאמור, הרעיון הבסיסי הינו אסדרת הבינה המלאכותית בהתאם ליכולתה לגרום נזק לחברה: ככל שהסיכון גבוה יותר, כך הכללים מחמירים יותר. וכך, שימוש בבינה מלאכותית המדגימה “רמות סיכון בלתי מקובלות” (unacceptable risk) יאסר, בין היתר, את המערכות או השימושים הבאים:

  • מערכות בינה מלאכותית אשר מתפעלות מניפולציות של התנהגות אנושית על מנת לפגוע בצורה ניכרת ביכולתו של האדם לקבל החלטה מושכלת;
  • שימוש בבינה מלאכותית לניצול חולשות אנושיות ופגיעות של אנשים (למשל, בשל גילם, מוגבלותם, מצבם החברתי או הכלכלי);
  • שימוש במערכות סיווג ביומטריות העושות שימוש במאפיינים רגישים (דוגמת אמונות פוליטיות, דתיות, פילוסופיות, נטייה מינית, גזע);
  • הערכה או סיווג המבוסס על התנהגות חברתית או מאפיינים אישיים, כאשר הציון מוביל ליחס מזיק או שלילי שאינו מוצדק;

מערכות בינה מלאכותית המסווגות כסיכון גבוה (high-risk), בשל הפגיעה הפוטנציאלית שלהן בבריאות, בטיחות, זכויות יסוד, סביבה, דמוקרטיה ושלטון החוק. לדוגמה, מערכות זיהוי ביומטרי מרחוק (למשל לצורך הערכת רגשות), בינה מלאכותית בשימוש במערכות רגישות, כגון תשתית קריטית (דוגמת אספקת מים, גז, חשמל), רווחה, תעסוקה, חינוך, תחבורה), תהיינה מאושרות, אך כפופות לדרישות וחובות מחמירות יותר, כגון הצורך לבצע הערכת השפעה על זכויות יסוד. לאזרחים תהיה זכות לקבל הסברים לגבי החלטות המבוססות על שימוש במערכות בינה מלאכותית בסיכון גבוה המשפיעות על זכויותיהם, ותוטל חבות מוגברת של שקיפות לצד חובות רישום.

מערכות בינה מלאכותית המציגות סיכון מוגבל (limited-risk) (לדוגמה צ’אט בוט או “דיפ פייק”), תהיינה כפופות לחובות שקיפות, כגון ליידע את המשתמשים כי התוכן שהם עוסקים בו נוצר באמצעות בינה מלאכותית, על מנת שהמשתמשים יוכלו לקבל החלטות מושכלות באשר לשימוש בתוכן.

התמודדות עם סיכונים מערכתיים

בחוק נוספו הוראות חדשות המתייחסות למצבים שבהם ניתן להשתמש במערכות בינה מלאכותית למטרות רבות ושונות (בינה מלאכותית למטרות כלליות), ושבהן טכנולוגיית AI למטרות כלליות משולבת לאחר מכן במערכת אחרת בעלת סיכון גבוה.

התפתחויות משמעותיות אלה הצריכו שכתוב מחדש של החוק, פעם אחר פעם, בשל הופעתם של כלי AI חדשים. כך, נקבעו כללים ספציפיים גם ביחס ל”מודלים בסיסיים” (Foundation Models) – מודל של בינה מלאכותית שהוכשר על נתונים בקנה מידה רחב כך שניתן להתאים אותו למגוון רחב של משימות. החוק קובע שמודלים כאלה חייבים לעמוד בהתחייבויות ספציפיות לשקיפות טרם יציאתם לשוק. משטר מחמיר יותר יוחל ביחס למודלים בסיסיים בעלי “השפעה גבוהה”. המדובר על מודלים אשר הוכשרו על בסיס כמות עתק של נתונים ובעלי מורכבות יכולת וביצועים מתקדמים, העלולים להיות בעלי סיכונים מערכתיים. החובות והדרישות המדויקים עבור מודלים אלה עתידים להתפרסם בקרוב עם פרסום הטקסט הסופי על ידי רשויות האיחוד האירופי. החברות המפתחות מודלים שכאלה יצטרכו לערוך תיעוד טכני, להקפיד על זכויות יוצרים ולפרט את התוכן המשמש לצורך אימון המודל.

חשוב לציין שהתפתחויות טכנולוגיות בתחום הבינה המלאכותית, שהינן בעלות השלכות מרחיקות לכת על חיינו ככלל, משתלבות לא רק בתחומים דוגמת תרגום, תחבורה, רפואה, השקעות ועולם המשפט, אלא שבעת האחרונה, עם התפתחות הבינה המלאכותית הגנרטיבית, הן הופכות לרווחות ושכיחות גם בתחומי יצירה ואמנות שונים, דוגמת מוזיקה, ציור וכתיבה, שנחשבו כפעילויות אנושיות במובהק.

שימוש בבינה מלאכותית על ידי רשויות אכיפת החוק

החוק אינו מבקש להחיל את החוק על מערכות המשמשות אך ורק למטרות צבאיות או הגנה. יתרה מכך, החוק כולל את האפשרות להשתמש בזיהוי ביומטרי מרחוק על ידי רשויות אכיפת החוק במרחבים ציבוריים במצבי חירום דוגמת חיפוש קורבנות (חטיפה, סחר בבני אדם ועוד), מניעת פעולת טרור ספציפית ואיתור אנשים המעורבים בפשעים הרלוונטיים, וזאת בכפוף לאמצעי הגנה מסוימים (פעילות זו נאסרה בגרסאות קודמות של החוק וכעת היא מותרת בתנאי שרשויות אכיפת החוק יכבדו אמצעי הגנה נוספים).

עידוד חדשנות

החוק לא יחול ביחס לחברות שמפתחות מערכות בינה מלאכותית אשר נועדו אך ורק לצורך מחקר. במטרה ליצור מסגרת משפטית ידידותית יותר לחדשנות, ההוראות הנוגעות לאמצעים לתמיכה בחדשנות שונו מהותית בהשוואה לטיוטת החוק הקודמת.

בהקשר זה יש להזכיר את ארגז החול הרגולטורי. ארגז חול רגולטורי הינה סביבה מבוקרת שהוקמה על ידי רשות ציבורית המאפשרת פיתוח ואישור בטוח של מערכות בינה מלאכותית חדשניות, לפרק זמן בטוח, לפני השימוש בהן, בהתאם לתוכנית ספציפית בפיקוח רגולטורי. ארגז החול הרגולטורי מהווה דרך לחבר בין חדשנים לרגולטורים ולספק סביבה מבוקרת עבורם לשיתוף פעולה. שיתוף פעולה כזה בין הרגולטורים והמחדשים אמור להקל על הפיתוח, הבדיקה והתיקוף של מערכות בינה מלאכותית חדשניות במטרה להבטיח עמידה בדרישת תקנת הבינה המלאכותית.

זכויות יוצרים

החוק קובע, כי שימוש בתוכן המוגן בזכויות יוצרים מצריך קבלת אישור של בעל הזכויות, אלא אם חלים חריגים ומגבלות רלוונטיים של זכויות יוצרים. לפיכך, ספקים של מודלים של בינה מלאכותית למטרות כלליות עשויים להידרש לקבלת אישור מבעלי הזכויות ככל שרוצים לבצע כריית טקסט ונתונים. מעניין כיצד הדבר ישפיע על חברות דוגמת OpenAI ומידג’רני.

חובות רישום, מינוי נציג, שמירת תיעוד ועוד

החוק קובע שורה של דרישות ביורוקרטיות, אשר יש לעמוד בהן, לרבות מינוי נציג מורשה באיחוד האירופי, אשר לו תפקיד מרכזי בהבטחת תאימות המערכת לרגולציה; ביצוע רישום נתונים במסד הנתונים של האיחוד האירופי, טרם השקת המערכת; שמירת תיעוד ומסמכים רלבנטיים לתקופה של עשר שנים לאחר יציאת מערכת הבינה המלאכותית לשוק או הפעלתה.

על אילו מערכות AI יחול החוק?

החוק עושה שימוש בהגדרה של מערכות בינה מלאכותיות המוצעות על ידי ה-OECD: “מערכת בינה מלאכותית היא מערכת מבוססת מכונה שמסיקה מהקלט שהיא מקבלת כיצד לייצר פלטים כמו תחזיות, תוכן, המלצות או החלטות שיכולות להשפיע על סביבות פיזיות או וירטואליות”.

מהן ההשלכות של אי ציות להוראות החוק?

בגין אי ציות להוראות החוק יוטלו קנסות כבדים ומשמעותיים. הקנסות בגין הפרות של חוק הבינה המלאכותית נקבעו כאחוז מהמחזור השנתי העולמי של החברה המפרה בשנת הכספים הקודמת, או סכום שנקבע מראש, לפי הגבוה מבניהם. סכום הקנסות הינו:

– 35 מיליון אירו או 7% עבור הפרות של יישומי הבינה המלאכותית האסורים, הגבוה מבינהם;

– 15 מיליון אירו או 3% עבור הפרות של חובות חוק הבינה המלאכותית, הגבוה מבינהם;

– 7.5 מיליון אירו או 1% עבור אספקת מידע שגוי.

עם זאת, ההסכם הזמני קובע מגבלות מופחתות יותר / קנסות מנהליים בנוגע לחברות קטנות ובינוניות וחברות סטארט-אפ במקרה של הפרות של הוראות החוק.

השלבים הבאים

במהלך השבועות הקרובים צפויה עבודה על ההסכם ברמת הטכנית, בדרך לאישור הסופי הצפוי במהלך חודש אפריל. לאחר מכן יפורסם הטקסט הסופי של חוק הבינה המלאכותית של האיחוד האירופי. ההסכם הזמני קובע כי חוק הבינה המלאכותית יחול שנתיים לאחר כניסתו לתוקף, עם מספר חריגים באשר להוראות ספציפיות, אשר תכנסנה לתוקף במועד מוקדם יותר. כאמור, עדיין צריכה להתבצע עבודה מסוימת, ולכן סביר להניח שמרבית הוראות החוק תיכנסנה לתוקף בשנת 2026.

יחד עם זאת, לא סביר שהחוק ישתנה מהותית. חברות העוסקות או מפתחות טכנולוגיות של בינה מלאכותית, או משקיעים השוקלים השקעות בתחום הבינה המלאכותית, ייתכן שירצו לוודא כי הפעילות תואמת ולא תיחשב כפעילות אסורה, על פי החוק החדש. לכן, יש להמתין לפרסום הנוסח הסופי והרשמי של החוק.

הכותב הוא ראש תחום AI במשרד ש. הורוביץ ושות’, המספק ליווי משפטי בתחום הבינה המלאכותית (AI).

האמור לעיל הינו מידע כללי, אשר אינו מהווה תחליף לייעוץ משפטי פרטני.