אזהרה מצמררת: מומחים בכל העולם מבהירים - הבינה המלאכותית פוגעת בנשים

תמונות עירום ללא הסכמה, פדופיליה, חוסר בזיהוי בעיות בריאותיות אצל נשים ושכר מפלה - לורה בייטס כתבה מאמר ב"פיננשנל טיימס" המזהיר מפני הסכנה הגוברת בבינה המלאכותית - ועל הצעדים האיטיים מידי של המדינות

מעריב אונליין צילום: מעריב אונליין
בינה מלאכותית
בינה מלאכותית | צילום: שאטרסטוק
5
גלריה
החמיר את המצב. גיליין מקסוול וג'פרי אפשטיין
החמיר את המצב. גיליין מקסוול וג'פרי אפשטיין | צילום: משרד המשפטים האמריקאי

היא ציינה כי חלק מהרתיעה מחקיקה נובעת מהתפיסה שהנזקים הפוטנציאליים הם בלתי מוחשיים. "רבים מאמינים שלמה שקיים באינטרנט יש מעט השלכות בעולם האמיתי. אם דימוי מיני אינו אמיתי, עד כמה משמעותית יכולה להיות ההשפעה באמת? רבים יטענו שהניצול לרעה המופעל באמצעות Grok, למרות שהוא קודר, אינו מצדיק רגולציה נרחבת שתגביל את המגזר כולו", כתבה.

תחילה, פתר את הבעיה חלקית - והתחמק. אילון מאסק
תחילה, פתר את הבעיה חלקית - והתחמק. אילון מאסק | צילום: רויטרס

עוד ציינה כי במהלך החודשים האחרונים צצו עדויות מדאיגות מאוד של נשים שצולמו בסתר על ידי גברים המשתמשים ב"משקפיים חכמים". הגרסאות האחרונות, שתוארו על ידי מטא כ"משקפי בינה מלאכותית", כוללות כלים מובנים המייצרים מידע בזמן אמת על מה שהלובש מסתכל עליו. ארגונים פמיניסטיים כבר העלו את האזהרה מפני האפשרות של ניצול לרעה של טכנולוגיה כזו לזיהוי נשים ולחשיפת מידע אישי עליהן.

מארק צוקרברג מציג בכנס של מטא
מארק צוקרברג מציג בכנס של מטא | צילום: REUTERS/Carlos Barria

מטא נסוגה באופן פעיל מצוותי הפיקוח שלה. בינואר 2025, החברה הודיעה כי היא "תצמצם באופן דרמטי" את מה שתיארה כ"צנזורה" בכל הפלטפורמות שלה, תחליף את בודקי העובדות ב"הערות קהילתיות" ותבטל "חבורה של הגבלות בנושאים כמו הגירה ומגדר שפשוט מנותקות מהשיח המרכזי". מועצת הפיקוח של החברה עצמה ביקרה את השינויים, וטענה כי הם בוצעו בחיפזון ללא שקיפות לגבי האם בוצעה בדיקת נאותות כלשהי בנוגע להשפעה הפוטנציאלית על זכויות אדם.

בעוד ממשלות ברחבי העולם מיהרו להגיב לגל מיליוני התמונות הפוגעניות שפורסמו על ידי גרוק, מאסק שיתף פוסט ובו טען כי "הפופולריות והשימוש בעולם האמיתי" של גרוק "מרקיעים שחקים ברחבי העולם". נראה כי שימוש לרעה טוב לעסקים. וזו בדיוק הסיבה שרגולציה חיונית.

רק גישה מונעת תמנע את הנזק האגבי שאנו כבר רואים שנגרם לפגיעים ביותר בחברה שלנו. אך חשוב גם שרגולציה לא תוגבל לטכנולוגיה שתוכננה במכוון כדי להקל על הטרדה. דוגמאות חוזרות ונשנות ממשיכות להדגים כיצד אפילו כלי בינה מלאכותית עם מטרות לכאורה תמימות מסתכנים בהנצחת הטיה אם הם לא נבדקים כראוי לפני שחרורם.

מפלה נשים בשכר. Chat GPT
מפלה נשים בשכר. Chat GPT | צילום: רויטרס

הבינה המלאכותית מפלה נשים - גם בשכר

בבריטניה, מחקר של בית הספר לכלכלה של לונדון גילה כי כלי בינה מלאכותית שכבר נמצאים בשימוש על ידי יותר ממחצית הרשויות המקומיות באנגליה המעיטו בחשיבותם של נשים במצבים הרפואיים, מה שעלול להוביל לחוסר שוויון באספקת טיפול.

מומחים הזהירו שוב ושוב כי כלי בינה מלאכותית המשמשים בגיוס עובדים עלולים להפלות באופן פעיל נגד מועמדות, כמו גם נגד מועמדות חובשות כיסויי ראש ואלו עם "שמות שנשמעים שחורים". עם זאת, מחקר של אוניברסיטת מלבורן מצא כי 42% מהחברות הגלובליות כבר משתמשות במערכות בינה מלאכותית חיזוי בגיוס, כאשר נתון זה צפוי לגדול משמעותית במהלך השנים הקרובות.

אפלייה - גם בבריאות

מחקר של הבנקאות העולמית לנשים מצא כי מערכות בינה מלאכותית לדירוג אשראי המועסקות על ידי ספקי שירותים פיננסיים גלובליים עלולות להפלות נשים, דבר המסכן את הדרתן מהלוואות ושירותים פיננסיים אחרים, ובכך להחריף את פער האשראי המגדרי העולמי החמור ממילא, העומד על 17 מיליארד דולר.

כבר עכשיו, ככל שהטיה וניצול לרעה הופכים כלים כאלה לפחות בטוחים ומהנים עבור נשים, פחות נשים מדווחות באופן דרמטי על ניצול בינה מלאכותית בחיי היומיום שלהן. ככל שפחות נשים משתמשות בבינה מלאכותית, פחות נשים ירגישו מוסמכות לתרום לעיצובה, ויותר נשים יושפעו מאובדן המשרות הבלתי נמנע שהיא מאיצה. מעגל הקסמים נמשך.

תגיות:
נשים
/
בינה מלאכותית
/
אפליית נשים
פיקוד העורף לוגוהתרעות פיקוד העורף