"מפתחים שיטות מתקדמות ומדויקות": חברת BeyondMinds עורכת בימים אלה מחקר מתקדם בנושא XAI (בינה מלאכותית מוסברת) במטרה לאפשר הטמעה של טכנולוגיות מבוססות בינה מלאכותית במערכות שבהן נדרש לקבל החלטות קריטיות ולספק פתרון לרגולציה ההולכת וגוברת בתחומים שונים.

״אחת הסיבות שמונעות הטמעה מאסיבית של מערכות וטכנולוגיות בינה מלאכותית בתעשייה הינה היעדר XAI (הסבריות). כלומר, גם אם האלגוריתמים יודעים לקבל החלטות ברמת דיוק מספקת, חוסר היכולת להסביר את השיקולים שהובילו להחלטה לא מאפשר את הטמעת הפתרונות במגוון רחב של תחומים", מסביר רותם אללוף, מנכ״ל BeyondMinds.

אחת הדוגמאות הנמצאות היום בשיח הציבורי היא מערכת בינה מלאכותית שתדע לאשר או לדחות תביעות שאותן חברות הביטוח מקבלות מהמבוטחים באופן אוטומטי, ללא התערבות אנושית, או עם התערבות אנושית מינימלית. כיום יש מערכות שיודעות לקבל החלטות מסוג זה ברמת דיוק גבוהה, אך הן לא מסוגלות להסביר את ההחלטה בצורה טובה. ״דמיינו שאדם תובע את חברת הביטוח, התביעה שלו נדחית והוא מגיש ערעור. אם לחברת הביטוח לא תהיה האפשרות להסביר את ההחלטה שהתקבלה, היא תעמוד בפני סיטואציה בעייתית מאוד״, מוסיף רותם.

מטרת המחקר שאותו מבצעת חברת BeyondMinds בימים אלה - לאפשר נימוק אוטומטי של החלטות המתקבלות באמצעות אלגוריתמים עבור סוגי מידע שונים ובתחומים שונים. ״אנו מפתחים שיטות הסבריות מתקדמות יותר, מדויקות יותר, שיאפשרו הטמעה מאסיבית של פתרונות AI בתחומים שבהם הדבר לא התאפשר עד כה מסיבות אלו. גילנו שבמקרים רבים ההסברים המתקבלים על ידי השיטות הקיימות היום לא מספקים הסבר ברמה גבוהה, וכן אינם מספקים את דרישות הרגולציה, ולכן התחלנו בתהליך מחקר ופיתוח של פתרון שיענה על הדרישות״, אומר ד"ר רועי מחרז, סמנכ"ל טכנולוגיות ב־BeyondMinds. 

אחד מהחסמים הבולטים שמרתיעים משתמשים מפנייה לטכנולוגיה ושימוש בבינה מלאכותית הינו היעדר הדיאלוג האנושי, שמוביל להבעת אי־אמון במחשב מצד המשתמש. אינטראקציה אינטליגנטית, המושתתת על שיח מותאם אישית ונימוקים הפונים להיגיון, עשויה להגביר את רמת האמינות ולקדם כניסה של בינה מלאכותית לתחומים רבים נוספים שבהם לא נעשה בה שימוש. מחקרים ופיתוחים בתחום הבינה המלאכותית יביאו לכך שבקרוב ניחשף לעוד מאפיינים אנושיים שאותם הבינה המלאכותית מסגלת לעצמה, והצעד הראשון יהיה כשנתחיל לקבל באמצעותה הסברים.