4 עקרונות עיצוב שיגרמו למשתמשים לסמוך על ה-AI שלכם
הבינה המלאכותית (AI) כבר מזמן הפכה מ"הדבר הבא" לחומר גלם בסיסי שאנחנו עובדים איתו ביום-יום. אבל ככל שהטכנולוגיה מתקדמת, כך משתנה גם האתגר שלנו כמאפיינים ומעצבים: המטרה היא כבר לא רק ליצור ממשק יפה או יעיל, אלא ליצור שותפות.
הגישה המובילה כיום בעולם היא Human-Centered AI (או בקיצור HCAI ) הרעיון פשוט: ה-AI לא כאן כדי להחליף אותנו, אלא כדי להעצים אותנו. כדי שזה יקרה, אנחנו צריכים לתכנן אותו אחרת. בכנס COM.PLEX2025, הכנס הראשון בעולם לעיצוב מערכות מורכבות, הציגה גלית קיפרווסר־לויט, מובילת תחום הנדסת גורמי אנוש ב-Aman Digital, את הכלים והמתודולוגיות שאנחנו מפתחים כדי לגשר על הפער שבין האדם למכונה. הנה תמצית העקרונות שיהפכו את ה”אלגוריתם” שלכם ל”שותף” אמיתי לדרך.
1. זה לא רק קוד, זו מערכת יחסים
כשמשלבים AI במערכת, אי אפשר להסתכל רק על הטכנולוגיה. אנחנו יוצרים כאן “צוות” חדש שמורכב מהמשתמש, האלגוריתם והסביבה הארגונית. לכן, תכנון ה-UX חייב להתמקד בבניית אמון. המשתמש צריך לדעת למה לצפות מהמערכת, להרגיש בטוח להשתמש בה ולהבין בדיוק איפה האחריות שלו נגמרת ואיפה של ה-AI מתחילה.
איך מיישמים את זה? כבר בשלב האפיון הראשוני, הגדירו ל-AI “תפקיד”. הוא לא עושה הכל. הוא יכול להיות “עוזר מחקר”, “בקר איכות” או “יועץ”. ברגע שהתפקיד מוגדר, קל יותר למשתמש להבין איך לעבוד איתו.
2. “הוא חושב”, “הוא החליט”: להשתמש בנטייה האנושית שלנו
יש לנו נטייה טבעית לייחס תכונות אנושיות למכונות (“המחשב התבלבל”, “הווייז החליט”). במקום להילחם בזה, אפשר להשתמש בזה ככלי עבודה (Anthropomorphism). האנשה עוזרת לנו ולמשתמשים להבין מודלים מורכבים בצורה אינטואיטיבית.
איך מיישמים את זה? תנו למערכת אישיות וטון דיבור (Tone & Voice). במקום הודעת שגיאה יבשה כמו “Error 404”, המערכת יכולה להגיד: “אני מזהה נתונים חסרים, כדאי לבדוק את החיישן”. כשהמערכת “מדברת” ומסבירה את עצמה, נוצרת אמפתיה ותחושת שותפות.
גלית קיפרווסר לויט, מובילת תחום הנדסת גורמי אנוש
התובנה הכי חשובה מההרצאה היא: “לא כל מה שהטכנולוגיה יודעת לבצע אפשר או צריך לפתח, מה שיקבע את תצורת המערכת זה תרחיש השימוש”
3. למה החלטת את זה? (חשיבות השקיפות) האתגר הכי גדול עם בינה מלאכותית הוא אפקט “הקופסה השחורה”. המערכת פולטת תוצאה, ואנחנו לא תמיד יודעים למה. אם המשתמש לא יבין את ההיגיון, הוא לא יסמוך על המערכת.
איך מיישמים את זה? הסברתיות (Explainability) היא שם המשחק.
הציגו את ה”למה”: אילו נתונים הובילו למסקנה?
חשפו את רמת הביטחון: בכמה ה AI בטוח בתשובה שלו? (נטפליקס: ב93% תהנו מהתוכן הזה)
אל תציגו רק שורה תחתונה, אלא את הדרך שעשיתם עד לשם.
4. להשאיר את המשתמש במושב הנהג מערכות AI עובדות על הסתברויות, לא על אמיתות מוחלטות. לכן, המשתמש האנושי חייב להרגיש שיש לו יכולת בקרה. הוא צריך להיות מסוגל “לתקן” את ה-AI או אפילו לכבות פיצ’רים מסוימים אם הם לא רלוונטיים כרגע.
איך מיישמים את זה? תנו למשתמשים שליטה: כפתורי On/Off למודלים שונים, אפשרות לערוך את ההצעות של ה-AI ויכולת לקבוע סף רגישות (למשל: “תתריע לי רק כשיש ודאות גבוהה מ-80%”).
לסיכום: קודם צורך, אחר כך טכנולוגיה התובנה הכי חשובה מההרצאה היא הסדר הנכון של הדברים. לא מתחילים ב”בוא נביא את הטכנולוגיה הכי מתקדמת שלנו?”, אלא ב”מה המשתמש צריך?” רק אחרי שמבינים את המשימה והתרחיש האנושי, בוחרים את הטכנולוגיה שתשרת אותו הכי טוב. בסופו של יום, ה-AI הוא כלי שנועד להפוך אותנו לטובים יותר, ולא להפך.
על הכותבת: גלית קיפרווסר לויט היא מובילת תחום הנדסת גורמי אנוש (Human Factors Engineering Lead) ב-ED&U מבית Aman. עם רקע ייחודי המשלב הנדסת אווירונאוטיקה ותואר שני בעיצוב תעשייתי, גלית מתמחה בפיצוח מערכות מורכבות ובגישור בין הטכנולוגיה לבין האדם המשתמש בה.