בשנה האחרונה החל מרוץ חדש, שמוגדר כמרוץ החימוש 2.0, עת ה־ChatGPT חדר לחיינו וגרם למלחמה סביב תחום הבינה המלאכותית. אותו ChatGPT שהפעים את כולם במבט ראשון, גרם, במבט שני, לחששות ברחבי העולם בכל הנוגע לחדירה לפרטיות, פגיעה בזכויות יוצרים ואף יציבות מדינות מבחינה כלכלית, ביטחונית ומדינית.
המאפיין הראשוני של הבינה המלאכותית הוא צ'אט־בוט, שהפך לשימוש צרכני כמעט בכל בית, עם מיליוני משתמשים בכל חודש, דבר שהוביל להאצת קצב ההשקעות בתחום ולתחרות בין ענקיות הטכנולוגיה על כלי הבינה המלאכותית. מאז השקתו, ChatGPT מעורר שיח שכולל כתיבת מאמרים ויצירות ומצד שני פגיעה בהגנה על מידע אישי. על אלו הגיבו רגולטורים ומחוקקים ברחבי העולם ובקרוב יהיה עליהם להחליט אם להגביל, להאט ואולי אף לאשר את ההתפתחויות השונות בתחום.
בעקבות זאת, הודיעה החברה על מספר שינויים בהתנהלות הצ'אט־בוט והצהירה כי תהיה שקיפות מיטבית לגבי צורת פעולתה. עם זאת, בני 18 ומעלה יהיו רשאים להשתמש בתוכנה כמו בני 13, שיצטרכו לספק אישור הורים לשימוש בשירות - מהלך שמעלה חששות בקרב רגולטור באיטליה, מכיוון שקל לזייף או לסמן אישור מההורים.
נוסף לאיטליה, רשויות ההגנה בספרד, בצרפת, בגרמניה, באירלנד ובעוד מדינות מערביות נוספות חוקרות ובודקות את איסוף המידע והשימוש בו על ידי מערכות הבינה המלאכותית. רק לאחרונה קם גוף המאחד את רשויות הפרטיות של אירופה, The European Data Protection Board, שהקים כוח משימה בנושא ChatGPT, שיבצע חקירות ואכיפה סביב הנושא הבעייתי, מהלך שעשוי להוביל למדיניות משותפת בכל רחבי היבשת.
לאחר מהלכים אלו השירות חזר לפעול, אך עדיין נמצא בבקרה ממושכת. רשויות ההגנה השונות באירופה עדיין מייחלות שהבינה המלאכותית תעמוד בדרישות נוספות לדוגמת אימות גיל בצורה קשיחה יותר, קמפיין הסברה לעיבוד המידע והזכויות של כל אזרח על המידע שברשותו. בין היתר, עלו שאלות על השימוש במידע שנמסר לצ'אט־בוט עצמו והאם ניתן להשתמש בו ללא הסכמה. למרות הניסיונות הרבים לאכוף ולחקור את הנושא, האיחוד האירופי מנסח בתקופה האחרונה סט חוקים שצפוי לעבור בחודשים הקרוב.
מה קורה בארה"ב? שם מתגבשים מספר מהלכים מול הטכנולוגיה החדשה. מטרת הרגולציה והחוקים המתהווים היא למנוע נזק שעשוי להיות אסון עצום מבחינת טכנולוגית למדינה, אך בזמן שמוודאים קדמה צריך לבחון דרך ראויה לפני שמעניקים לידי הציבור כלי בעל יכולות אדירות כמו הבינה המלאכותית. במילים אחרות, האצבע של האח הגדול לא קלה על ההדק כשהיא מעניקה למיליוני משתמשים גישה לפרטים אישיים ולממצאים חשובים. לכן נבחנים לאחרונה מספר מודלים שתפקידם להגן על התכנים שנמצאים בפלטפורמות השונות שמפרסמים כלל המשתמשים. את הפיגור המינורי של האמריקאים הם ודאי יצמצמו מהר, אחרי שיסדירו את המחלוקות הפוליטיות.
"בשימוש בטכנולוגיות של בינה מלאכותית קיימות סכנות רבות ביחס לפרטיות, למידע האישי ולהגנה עליהם. הסכנות לפרטיות יכולות לבוא לידי ביטוי הן בעת השימוש בטכנולוגיה, שבמסגרתה נאספים פרטים על המשתמשים, הן ביחס למידע אליו נחשפים המשתמשים תוך כדי השימוש בטכנולוגיה והן ביחס לאופן השימוש במידע הקיים באמצעות הטכנולוגיה", מסבירה עו"ד גפנית לגזיאל, שותפה וראש תחום הגנת הפרטיות במשרד עו"ד פירון.
אבל זמן קצר אחרי שהאיטלקים חסמו את הצ'אט־בוט הם העבירו רשימת ליקויים כדי שייפתח מחדש. "ובתגובה החלה OpenAI ליישם ולהטמיע תיקונים וצפויה לציית לדיני הפרטיות האירופאיים תוך זמן מועט".
"לכן, הדגש העיקרי, לטעמי, ש'ידביק' את הקצב של המשפט לטכנולוגיה יהיה באופן היישום של דיני הפרטיות על הטכנולוגיה. על היישום לבוא לידי ביטוי בשלושה מישורים: הראשון הוא שהחברה המפתחת את הטכנולוגיות הללו תציית לדיני הגנת הפרטיות, בין בישראל ובין באירופה. השני, מתמקד בכך שארגונים וחברות שעושות שימוש בטכנולוגיות הללו, יצייתו לדיני הגנת הפרטיות, ובכלל זה, ישקפו זאת למשתמשים שלהם ויקבלו את הסכמתם לכך. האחרון, מתייחס לכך שהמשתמשים יידעו מה נעשה במידע שנאסף על אודותם, לאיזו מטרה הוא מיועד ויסכימו לכך".
אחד הסיכונים הנוספים והמשמעותיים של הצ'אט־בוט הוא דיסאינפורמציה. "כלומר הפצה נרחבת של מידע שגוי בקרב הציבור, וכפועל יוצא אחד האתגרים ביחס למערכות בינה מלאכותית, הוא סוג הבקרות הנדרשות, והניתנות ליישום, בקשר לדיוק של המערכת ולאמיתות תוצרי המידע שלה", מרחיבה עו"ד ורד זליכה, שותפה וראשת תחום סייבר ובינה מלאכותית במשרד ליפא מאיר ושות'.
"בין הסיכונים נמנים גם סיכוני הסייבר, בשל החשש לניצול לרעה של המערכת ליצירת פגיעויות חדשות או להתפשטות מהירה ונגישה באופן נרחב של כלים זדוניים בסייבר, הסיכון של הגנת הפרטיות, וכן החשש מפגיעה בקניין רוחני, בהינתן שהמערכות מתבססות, בין היתר, על יצירות המהוות קניין רוחני".
"בנוסף, יש לזכור כי הדין הקיים חל גם בקשר למערכות בינה מלאכותית, והרגולטור התחיל להתייחס לנושא. הרשות להגנת הפרטיות התייחסה בשנה האחרונה לעניין היידוע של אנשים על אודות השימוש במערכות בינה מלאכותית לאיסוף ולעיבוד מידע אישי, והצורך להסביר לפרט את מטרת השימוש במידע על אודותיו, למי הוא נמסר, וכיצד המערכת קיבלה החלטות לגביו".
האתגר שבפניו עומדים בתי המשפט הולך וגדל ככל שהאדם מגדיל את המכונה. אם בתי המשפט משקפים כיום נורמות חברתיות ומתפתחים בהתאם עם השנים, ניכר שהטכנולוגיות החדשות הן זרז להתפתחות משפטית, לעתים טרם הופעתן.
"עם זאת, יש לזכור, שהדין הכללי הקיים, לדוגמה, דיני פרטיות, דיני הגנת צרכן וכיוצא בזאת, חל ככלל גם בקשר לבינה מלאכותית. לכן לגישתי, היכן שנזהה היבטים ייחודיים המצריכים התייחסות מעודכנת, לאור ההתפתחות הטכנולוגית המואצת והשאיפה לקדם חדשנות לטובת האנושות, ראוי לשקול בשלב ראשון להסתייע בכלים "רכים", כגון מדיניות ואתיקה, מודעות וחינוך הציבור, ולעצב את הרגולציה עקב בצד אגודל היכן שנדרש. גישה כזו תואמת להבנתי גם את הכיוונים שהותוו בטיוטת המדיניות הלאומית שגובשה לפני כשנה בתחום".