לקוחות ועמיתים יקרים,
הצורך באסדרה (רגולציה) של בינה מלאכותית
הבינה המלאכותית שחדרה לחיינו בסערה בשנה האחרונה, הינה בעלת חשיבות מרחיקת לכת על עתיד האנושות, והיא תוארה כ”מהפכה התעשייתית הרביעית”. הישגים שונים של בינה מלאכותית, שלא ניתן היה להעלות על הדעת בעבר, הינם כעת בבחינת מציאות מתפתחת ומרתקת. התחום חוצה מגזרים והוא ממשיך להתפתח בקצב מהיר במיוחד. ואולם, למרות היתרונות המובנים בטכנולוגיה מתפתחת זו, התפתחויות אלה יצרו לא מעט חששות מחוסר הרגולציה בתחום ומהסכנות הטמונות בבינה מלאכותית, וברור שנדרשת בקרה על הפיתוח ועל השימוש בה, במטרה למנוע סיכונים העלולים להיווצר כתוצאה מהשימוש בה, החל מנושא הפרטיות, דרך זכויות יוצרים, אובדן מקומות עבודה, ועד לפגיעה בזכויות אדם וחירויות יסוד.
הבינה המלאכותית במובן זה היא טכנולוגיה מתפרצת שיש להיערך אליה באמצעות אסטרטגיה לאומית ומדיניות רגולטורית. ברחבי העולם אנו עדים כיום למירוץ עולמי של חקיקה המבקשת לאסדר את הפיתוח והשימוש בטכנולוגיות בינה מלאכותית. האיחוד האירופי הינו גורם מוביל ביצירת אסדרה של בינה מלאכותית, וחשף את הצעת החוק עוד במהלך שנת 2021. במובן זה, אירופה מיצבה את עצמה כחלוצה וכסמן רגולטורי, תוך הבנת חשיבות תפקידה כקובעת סטנדרטים גלובליים. שחקנים מובילים בתחום, לצד האיחוד האירופי הינם ארה”ב, סין ובריטניה.
חוק הבינה המלאכותית של האיחוד האירופי – EU AI ACT
בסוף השבוע הקודם נפל דבר באיחוד האירופי. לאחר דיונים רבים ומשא ומתן מרתוני של 36 שעות בין הגופים השונים (EU Commissions, Parliament, Council) , הוסכם על נוסח מתוקן של מסגרת משפטית מקיפה בעולם לאסדרת בינה מלאכותית: חוק הבינה המלאכותית של האיחוד האירופי (EU AI ACT). החוק הוצע לראשונה בחודש אפריל 2021, הפרלמנט האירופי אישר את טיוטת החוק בחודש יוני 2023, וחוק זה מגיע כעת לתצורתו הסופית.
ה- EU AI ACT הינה יוזמת דגל להסדרת טכנולוגיה משבשת זו. היא פועלת לפי גישה מבוססת סיכונים, כאשר הרעיון המרכזי הוא להתייחס לבינה המלאכותית בהתבסס על יכולתה לגרום נזק לחברה: ככל שהסיכון גבוה יותר, כך הכללים מחמירים יותר. לפיכך, הוגדרו מספר רמות של מערכות בינה מלאכותית: החל מסיכון מינימלי, דרך החלת משטר קפדני במקרים של שימוש בסיכון גבוה, ועד למערכות ברמת סיכון אשר אינו מקובל (Unacceptable risk) – אשר שימוש בהן ייאסר.
האירוע הינו בעל חשיבות ומהווה ציון דרך במהלכים החקיקתיים לאסדרת טכנולוגיית הבינה המלאכותית.
נציב האיחוד האירופי תיירי ברטון, כתב ברשת החברתית X :”היסטוריה! האיחוד האירופי הופך ליבשת הראשונה שקבעה כללים ברורים לשימוש בבינה מלאכותית”.
Carme Artigas מזכירת המדינה הספרדית לדיגיטליזציה ובינה מלאכותית, ציינה כי:
“This is a historical achievement, and a huge milestone towards the future! Today’s agreement effectively addresses a global challenge in a fast-evolving technological environment on a key area for the future of our societies and economies. And in this endeavour, we managed to keep an extremely delicate balance: boosting innovation and uptake of artificial intelligence across Europe whilst fully respecting the fundamental rights of our citizens.”
מהם המרכיבים העיקריים של חוק הבינה המלאכותית של האיחוד האירופי?
הדרישות של חוק הבינה המלאכותית של האיחוד האירופי שונות בהתאם לרמת הסיכון שמציבה מערכת הבינה המלאכותית. כאמור, הרעיון הבסיסי הינו אסדרת הבינה המלאכותית בהתאם ליכולתה לגרום נזק לחברה: ככל שהסיכון גבוה יותר, כך הכללים מחמירים יותר.
שימוש בבינה מלאכותית המדגימה “רמות סיכון בלתי מקובלות” (unacceptable risk) – ייאסר:
– מערכות סיווג העושות שימוש במאפיינים רגישים (דוגמת אמונות פוליטיות, דתיות, פילוסופיות, נטייה מינית, גזע);
– איסוף תמונות פנים מהאינטרנט או קטעי טלוויזיה במעגל סגור ליצירת מאגרי מידע לזיהוי פנים;
– זיהוי רגש במקום העבודה ובמוסדות החינוך;
– ניקוד חברתי המבוסס על התנהגות חברתית או מאפיינים אישיים;
– מערכות בינה מלאכותית אשר מתפעלות מניפולציות של התנהגות אנושית על מנת לעקוף את הרצון החופשי;
– שימוש בבינה מלאכותית לניצול חולשות אנושיות ופגיעות של אנשים (לדגמא בשל גילם, מוגבלותם, מצבם החברתי או הכלכלי).
מערכות בינה מלאכותית המסווגות ב “סיכון גבוה” (high-risk) (בשל הפגיעה הפוטנציאלית שלהן בבריאות, בטיחות, זכויות יסוד, סביבה, דמוקרטיה ושלטון החוק – לדוגמא בינה מלאכותית בשימוש במערכות רגישות, כגון רווחה, תעסוקה, חינוך, תחבורה), תהיינה מאושרות, אך כפופות לדרישות וחובות מחמירות יותר, כגון הצורך לבצע הערכת השפעה על זכויות יסוד. לאזרחים תהיה זכות לקבל הסברים לגבי החלטות המבוססות על שימוש במערכות בינה מלאכותית בסיכון גבוה המשפיעות על זכויותיהם, ותוטל חבות מוגברת של שקיפות לצד חובות רישום.
מערכות בינה מלאכותית המציגות “סיכון מוגבל” (limited-risk) (לדוגמא צ’אט בוט או “דיפ פייק”), תהיינה כפופות לחובות שקיפות, כגון ליידע את המשתמשים כי התוכן שהם עוסקים בו נוצר באמצעות בינה מלאכותית, על מנת שהמשתמשים יוכלו לקבל החלטות מושכלות באשר לשימוש בתוכן.
לבסוף, כל שאר מערכות הבינה המלאכותית שאינן נופלות תחת אחת משלושת קטגוריות הסיכון העיקריות, כגון מערכות המלצה מבוססות בינה מלאכותית או מסנני דואר זבל, מסווגות כ”סיכון מינימלי” (Minimal-risk) / ללא סיכון. החוק מאפשר שימוש חופשי במערכות בינה מלאכותית בעלות סיכון מינימלי, אך מעודד שימוש בקודים וולנטריים של התנהגות.
בינה מלאכותית כללית (General Purpose AI / Foundation Models)
נוספו הוראות חדשות המתייחסות למצבים שבהם ניתן להשתמש במערכות בינה מלאכותית למטרות רבות ושונות (בינה מלאכותית למטרות כלליות), ושבהן טכנולוגיית AI למטרות כלליות משולבת לאחר מכן במערכת אחרת בעלת סיכון גבוה.
התפתחויות משמעותיות אלה הצריכו שכתוב מחדש של החוק, פעם אחר פעם, בשל הופעתם של כלי AI חדשים. כך, נקבעו כללים ספציפיים גם ביחס ל”מודלים בסיסיים” (Foundation Models) – מודל של בינה מלאכותית שהוכשר על נתונים בקנה מידה רחב כך שניתן להתאים אותו למגוון רחב של משימות. החוק קובע שמודלים כאלה חייבים לעמוד בהתחייבויות ספציפיות לשקיפות טרם יציאתם לשוק. משטר מחמיר יותר יוחל ביחס למודלים בסיסיים בעלי “השפעה גבוהה”. המדובר על מודלים אשר הוכשרו על בסיס כמות עתק של נתונים, ובעלי מורכבות יכולת וביצועים מתקדמים, העלולים להיות בעלי סיכונים מערכתיים. החובות והדרישות המדויקים עבור מודלים אלה עתידים להתפרסם בקרוב עם פרסום הטקסט הסופי על ידי רשויות האיחוד האירופי. החברות המפתחות מודלים שכאלה יצטרכו לערוך תיעוד טכני, להקפיד על זכויות יוצרים ולפרט את התוכן המשמש לצורך אימון המודל.
חשוב לציין שהתפתחויות טכנולוגיות בתחום הבינה המלאכותית, שהינן בעלות השלכות מרחיקות לכת על חיינו ככלל, משתלבות לא רק בתחומים דוגמת תרגום, תחבורה, רפואה, השקעות ועולם המשפט, אלא שבעת האחרונה, עם התפתחות הבינה המלאכותית הגנרטיבית, הן הופכות לרווחות ושכיחות גם בתחומי יצירה ואמנות שונים, דוגמת מוזיקה, ציור וכתיבה, שנחשבו כפעילויות אנושיות במובהק.
שימוש בבינה מלאכותית על ידי רשויות אכיפת החוק
החוק אינו מבקש להחיל את החוק על מערכות המשמשות אך ורק למטרות צבאיות או הגנה. יתרה מכך, החוק כולל את האפשרות להשתמש בזיהוי ביומטרי מרחוק על ידי רשויות אכיפת החוק במרחבים ציבוריים במצבי חירום דוגמת חיפוש קורבנות (חטיפה, סחר בבני אדם ועוד), מניעת פעולת טרור ספציפית ואיתור אנשים המעורבים בפשעים הרלוונטיים, וזאת בכפוף לאמצעי הגנה מסוימים (פעילות זו נאסרה בגרסאות קודמות של החוק וכעת היא מותרת בתנאי שרשויות אכיפת החוק יכבדו אמצעי הגנה נוספים).
עידוד חדשנות
החוק לא יחול ביחס לחברות אשר מפתחות מערכות בינה מלאכותית אשר נועדו אך ורק לצורך מחקר. במטרה ליצור מסגרת משפטית ידידותית יותר לחדשנות, ההוראות הנוגעות לאמצעים לתמיכה בחדשנות שונו מהותית בהשוואה לטיוטת החוק הקודמת.
בהקשר זה יש להזכיר את ארגז החול הרגולטורי. ארגז חול רגולטורי הינה סביבה מבוקרת שהוקמה על ידי רשות ציבורית המאפשרת פיתוח ואישור בטוח של מערכות בינה מלאכותית חדשניות, לפרק זמן בטוח, לפני השימוש בהן, בהתאם לתוכנית ספציפית בפיקוח רגולטורי. ארגז החול הרגולטורי מהווה דרך לחבר בין חדשנים לרגולטורים ולספק סביבה מבוקרת עבורם לשיתוף פעולה. שיתוף פעולה כזה בין הרגולטורים והמחדשים אמור להקל על הפיתוח, הבדיקה והתיקוף של מערכות בינה מלאכותית חדשניות במטרה להבטיח עמידה בדרישת תקנת הבינה המלאכותית.
על אילו מערכות AI יחול החוק?
החוק עושה שימוש בהגדרה של מערכות בינה מלאכותיות המוצעות על ידי ה-OECD:
“An AI system is a machine-based system that […] infers from the input it receives how to generate outputs such as predictions, content, recommendations, or decisions that can affect physical or virtual environments.”
מהן ההשלכות של אי ציות להוראות החוק?
בגין אי ציות להוראות החוק יוטלו קנסות כבדים ומשמעותיים. הקנסות בגין הפרות של חוק הבינה המלאכותית נקבעו כאחוז מהמחזור השנתי העולמי של החברה המפרה בשנת הכספים הקודמת, או סכום שנקבע מראש, לפי הגבוה מביניהם. סכום הקנסות הינו:
– 35 מיליון אירו או 7% עבור הפרות של יישומי הבינה המלאכותית האסורים;
– 15 מיליון אירו או 3% עבור הפרות של חובות חוק הבינה המלאכותית;
– 7.5 מיליון אירו או 1.5% עבור אספקת מידע שגוי.
עם זאת, ההסכם הזמני קובע מגבלות מופחתות יותר / קנסות מנהליים בנוגע לחברות קטנות ובינוניות וחברות סטארט-אפ במקרה של הפרות של הוראות החוק.
מהם השלבים הבאים?
במהלך השבועות הקרובים צפויה עבודה על ההסכם ברמת הטכנית, בטרם שיוגש לאישור נציגי המדינות החברות באיחוד האירופי. לאחר מכן יפורסם הטקסט הסופי של חוק הבינה המלאכותית של האיחוד האירופי. ההסכם הזמני קובע כי חוק הבינה המלאכותית יחול שנתיים לאחר כניסתו לתוקף, עם מספר חריגים באשר להוראות ספציפיות. כאמור, עדיין צריכה להתבצע עבודה מסויימת, ולכן סביר להניח שהחוק ייכנס לתוקף בשנת 2026.
יחד עם זאת, לא סביר שהחוק ישתנה מהותית, וחברות העוסקות או מפתחות טכנולוגיות של בינה מלאכותית, או משקיעים השוקלים השקעות בתחום הבינה המלאכותית, ייתכן שיירצו לוודא כי הפעילות תואמת ולא תיחשב כפעילות אסורה, על פי החוק החדש.
נמתין לנוסח הסופי של החוק על מנת לראות מה בדיוק סוכם ומתי החוק יכנס לתוקף. נמשיך לעדכן.
אנו שמחים לעדכן על הצטרפותו של ד”ר אייל ברוק כשותף למשרד, אשר יוביל ויפתח את תחום הבינה המלאכותית – AI. תחום חדשני ופורץ דרך זה דורש מומחיות ייחודית ומשיק לקשת רחבה של אספקטים. לכן, הקמנו צוות ייעודי הכולל מספר שותפים ממגוון רב של תחומים: היי-טק, סייבר, עסקאות, קניין רוחני וזכויות יוצרים.
משרדנו ממשיך לעמוד לרשותכם לשאלות או הבהרות נוספות, ומספק שירות ייעודי בתחום הבינה המלאכותית (AI). יובהר, כי האמור לעיל הינו מידע כללי, אשר אינו מהווה תחליף לייעוץ משפטי פרטני. אנו עומדים לרשותכם לכל שאלה או שירות, ומאחלים לכם וליקיריכם ימים בטוחים ושקטים.