זה מתחיל בתחושת קסם. אתה מקליד משפט סתמי כמו "ילד בונה טירה מחול על הירח" ומקבל תוך שניות תמונה מהפנטת, עתירת פרטים, שנראית כאילו צולמה על ידי צלם חלל עם גישה לסטודיו של דיסני. אתה מהופנט. העתיד כאן. אבל אז אתה מבקש מהבינה המלאכותית להמחיש את סבתא שלך חוגגת יום הולדת 90, ומגלה שהיא מצוידת בשתי כוסות יין, שלוש ידיים ועין אחת שממוקמת במצח. פתאום העתיד נראה פחות מזהיר, ויותר כמו ציור של דאלי אחרי לילה לבן.

בעשור האחרון הפכה הבינה המלאכותית ממשחק למעצמה. היא כותבת, מתרגמת, מנתחת, מתארת, ממליצה, מתווכחת — ובמובנים מסוימים גם מחקה תודעה. אך מתחת לברק הדיגיטלי מסתתרים קלקולים, שיבושים ולעיתים כשלי הבנה מהותיים. ככל שהמערכות מתקדמות, כך גם נחשפים הרגעים שבהם הן מגוחכות, מגומגמות או פשוט שגויות לחלוטין. ברוכים הבאים למציאות החדשה: המחשב אולי יודע הכול, אבל עדיין לא מבין דבר.

האנטומיה על פי רובוט: שש אצבעות ועין במצח

מחוללי תמונה מבוססי בינה מלאכותית, כמו  Midjourney ו- DALL-E  מציגים חזות משוכללת של יצירתיות דיגיטלית  עד שהם נתקלים באתגר העתיק בעולם: גוף האדם. התוצאה נעה בין משעשעת למטרידה. ידיים עם שש או שבע אצבעות, עיניים בגדלים שונים, שיניים בכמות תעשייתית ופרצופים שמתחלפים בין פריים לפריים. האלגוריתמים לומדים מתוך מיליוני תמונות, אך אין להם מושג אמיתי מהי אנטומיה או פיזיולוגיה. כשנדרשת מהם קוהרנטיות -למשל ליצור סדרת תמונות של אותה דמות - הם פשוט לא מצליחים לשמור על עקביות בסיסית.

טעויות מסוג זה משתרעות גם על חוקי הפיזיקה: חפצים מרחפים, כוסות נמסות לתוך השולחן, אור שנופל מכיוון בלתי אפשרי וצללים שפשוט לא קיימים. ואם תבקשו טקסט מוטמע בעברית, התוצאה תהיה לרוב טשטוש קל של אותיות, ערבוב חסר הבחנה בין עברית לאנגלית, וחוסר הבנה מוחלט של כיווניות ימין-שמאל. לא מדובר בטעות עיצוב — אלא בכשל תפיסתי עמוק.

המצאות, שגיאות וידע לא עדכני

אחד הכשלים המדוברים ביותר של מודלי שפה כמו ChatGPT ו Gemini -הוא נטייה להמציא. הם ממציאים מאמרים, מראיינים דמויות שלא קיימות, כותבים שמות של פרופסורים דמיוניים ומצרפים אליהם תאריכים, מקורות וציטוטים - הכל באורח שקט ובטון סמכותי. הבעיה החריפה יותר כשזה נוגע לאירועים אקטואליים: מאחר שהמודלים מוגבלים במידע שנקטע בנקודת זמן מסוימת, הם לא מודעים להתרחשויות שקרו לאחר מכן. שאלות על פוליטיקה, מגפות, מדע או אפילו טכנולוגיה חדשה עלולות לקבל תשובות מנותקות מהמציאות.

ומעבר לזמן, יש גם בעיית עומק: חוסר עקביות, קפיצות לוגיות, שכחת פרטים משיחה קודמת, שגיאות חישוב בסיסיות, וסיכומים שמעוותים את כוונת הכותב. מערכת שמסוגלת להבין את מבנה המשפט, עדיין אינה מבינה רעיונות — וזה הבדל מהותי.

הזיות הבינה. תוספות לתמונה שלא ביקשתם (צילום: מעריב אונליין)
הזיות הבינה. תוספות לתמונה שלא ביקשתם (צילום: מעריב אונליין)

אירוניה היא עדיין בגדר בדיחה פנימית

ה-AI יודע לקרוא שירה ולהשיב בחזרה בשיר, אך הומור? כאן מתגלים הקצרים האמיתיים. היכולת להבין סרקזם, ניואנסים, משחקי מילים או אינטונציה נסתרת  עדיין לוקה בחסר. אפילו ניסוחים שלילה כפולה או רמיזות מעודנות נענים ברצינות תהומית ולעיתים בהחמצה קומית.
הבעיה הזו בולטת גם בתרגום. חרף השיפורים המרשימים, תרגום אוטומטי עדיין סובל מתרגום מילולי מדי, שימוש בביטויים שאינם קיימים בשפת היעד, ותחביר שמשקף יותר את שפת המקור מאשר את הטבעיות של השפה המתורגמת.

נחמדות יתר, העדר אובייקטיביות ותשובות גנריות

כדי להימנע מהסתבכויות משפטיות, פוליטיות או מוסריות, מתוכנתות רבות ממערכות ה-AI  להיות מרצות ואפילו חנפניות. אך הניסיון הזה להפוך אותן לבלתי מזיקות, לעיתים גובה מחיר של חוסר ערך. בקשו מהמערכת חוות דעת על נושא שנוי במחלוקת, ותקבלו תשובה שמתחמקת מכל נקיטת עמדה. בקשו ביקורת ותקבלו עידוד. שאלו שאלה פתוחה - והמודל ינסח מחדש את השאלה במקום להשיב.

ה"נחמדות" הזו מתורגמת גם ליצירת תוכן גנרי, שטחי ובטון אחיד להחריד. יש הרגשה לעיתים שהתשובות נכתבות על ידי מתווך ציבורי עם אובססיה לקורקטיות. היכולת לחשוב מחוץ לקופסה קיימת רק כשמבקשים זאת מפורשות, וגם אז – רק במסגרת הגבולות שהוגדרו לה מראש.

אז למה זה קורה בעצם? הטעויות אינן מקריות - הן תוצאה ישירה של האופן שבו פועלות מערכות הבינה המלאכותית. ראשית, הן אינן "מבינות" את העולם, אלא מחקות אותו דרך הסתברויות שנלמדו ממיליוני דוגמאות. אין להן הבנה מושגית של משמעות, של הקשר, של מוסר או של אנטומיה — רק הסתברויות של מה שמופיע ליד מה. שנית, הפלט תלוי ישירות באיכות ובדיוק של הפקודה שניתנה. בקשה כללית מדי תניב תוצאה מעורפלת; בקשה מורכבת מדי תוביל לעיתים לבלבול.

יתרה מכך, המודלים מבוססים על מאגרי מידע סטטיים, כלומר, הם אינם מחוברים לרשת בזמן אמת, ולכן אינם מעודכנים באירועים שקרו לאחר מועד הקפאת המידע. זוהי מגבלה מהותית המשפיעה על דיוק ואמינות המידע שהם מספקים. גם הטיות שנובעות מחומר הלימוד, ריבוי שפות, תרגומים לא אחידים או פשוט טעויות סטטיסטיות – כולם גורמים נוספים שיכולים להוביל לתוצאה שגויה, לא עקבית, ולעיתים פשוט מופרכת.

הטעויות הללו אינן מעידות על כשלון — אלא על תהליך. בינה מלאכותית אינה תודעה, אלא כלי. ויש לה תפקיד מובהק: להרחיב את היכולות האנושיות, לא להחליף אותן. התקלות, הליקויים והפאשלות של ה-AI  הם לא סימן לחולשה של הטכנולוגיה - אלא תזכורת לעומק של המורכבות האנושית.

אז בפעם הבאה שהמודל יציע לכם לנסח ברכה ליום הולדת ויכתוב במקום זה הצעה עסקית עם שגיאות דקדוק, או שתבקשו ממנו דיוקן משפחתי ותקבלו תוצאה שנראית כמו מופע אימים — חייכו. גם המחשב, כך נראה, רק מנסה להבין את בני האדם. בינתיים, אנחנו ממליצים לבדוק היטב את התוצאה שקיבלתם בבינה המלאכותית, להצליב מידע, ולקבל את התוצאה שקיבלתם בעירבון מוגבל.