למשל, בתרחיש שאירע לאחרונה בכלי רכב תעשייתי אוטונומי, החלטת AI הובילה לתאונה שאיש לא צפה. התוצאה הייתה מערבולת של שאלות: איזו פוליסה (אם בכלל) תשלם על הנזק? מי נושא באחריות – המפעיל, מפתח התוכנה או החברה שמשתמשת ב-AI? דילמות כאלה נעשות נפוצות יותר ככל שהטכנולוגיה מקדימה את שפת חוזי הביטוח הסטנדרטיים.
פערי כיסוי בפוליסות מסורתיות
רוב החברות מניחות שהביטוחים הקיימים שלהן – בין אם זו אחריות מקצועית, אחריות מוצר, סייבר או אחריות כללית – יגיבו אם משהו ישתבש. אבל AI מטשטשת את הגבולות שעל פיהם נבנו פוליסות אלה. "בינה מלאכותית שקטה" הוא מונח שמתייחס לסיכוני AI שאינם נכללים או מוחרגים במפורש בפוליסות, מה שמשאיר אזור דמדומים של כיסוי.
בדומה לבעיה קודמת של "סייבר שקט" (Silent Cyber), מקרה שנגרם על-ידי AI עשוי לא להפעיל אף פוליסה כי הוא לא מוזכר בבירור – לא כחוסה ולא כמוחרג. מצב כזה עלול להוביל למחלוקות בין מבוטחים למבטחים האם נזק שנגרם עקב אלגוריתם אכן מכוסה. למשל, אם כלי עזר מבוסס AI במרפאה נותן המלצה שגויה שפוגעת במטופל, המבטח בביטוח אחריות מקצועית (רשלנות רפואית) עשוי לטעון שהטעות של ה-AI אינה "מעשה מקצועי" של אדם, ולדחות את התביעה.
בדומה, אם רובוט ייצור עם אלגוריתם פגום גורם נזק לציוד, חברת הביטוח עשויה לטעון שמדובר ב"ליקוי מוצר" או שגיאה טכנולוגית שאינה מכוסה בפוליסת הרכוש הרגילה. המבוטח, מצידו, יפנה לאי-הבהירות בחוזה ויצפה לכיסוי – מתכון להתדיינות משפטית ארוכה ויקרה.
שרשרת אחריות מורכבת
כשלי AI גורמים לעיתים קרובות לשרשרת אירועים המקיפה מספר תחומי ביטוח. ניקח את המקרה של התנגשות רכבות אוטונומיות: שגיאת תוכנה קטנה יצרה פרצת אבטחה, האקרים ניצלו אותה וגרמו לתאונה בין שני רכבות משא. החברה שמפעילה את הרכבות סבלה מנזק פיזי לרכוש, אובדן נתונים, הפסקת פעילות עסקית, ואף תביעות מלקוחות על איחורים באספקה – תמהיל של נזקים שבדרך כלל מפוזרים על כמה פוליסות שונות.
ביטוח הרכוש עשוי לכסות את הנזק הפיזי מההתנגשות, אבל אולי לא אם יוכח שהגורם הוא מתקפת סייבר (שכן רבות מפוליסות הרכוש כוללות החרגת סייבר). ביטוח הסייבר יכול לכסות את עלויות שיחזור הנתונים, אבל לא בהכרח את עלות החלפת הקטרים או את ההפסד מהשבתת הפעילות. במקביל, יצרן הרכבת ומפתח תוכנת ה-AI עלולים גם הם להיתבע. כאשר AI מעורבת, קביעת הפוליסה שתענה לנזק הופכת למסובכת כמבוך. כל מבטח עשוי להתעקש שהפוליסה של האחר היא הרלוונטית, מה שעלול להשאיר את העסק ללא מענה ביטוחי ברור בעיצומו של משבר.
מדוע AI מתריסה נגד קטגוריות הביטוח המסורתיות: חלק מהבעיה נעוץ בכך שפוליסות ביטוח מגדירות כיסוי לפי סוג הגורם לנזק או זהות האחראי (למשל, "טעות מקצועית" של אדם לעומת "פגם מוצר" במוצר). הבינה המלאכותית מטשטשת הגדרות אלה:
- כאשר AI משמשת יועץ או מקבלת החלטות, והפלט שלה שגוי – האם מדובר בטעות מקצועית של המשתמש (האדם) או בפגם מוצר בתוכנה? עמימות זו מקשה לדעת אם פוליסת האחריות המקצועית (שמכסה שגיאות אנוש) או פוליסת אחריות המוצר (שמטפלת בפגמי מוצר) אמורה להגיב.
- פוליסות אחריות רבות מוחרגות פעולות מכוונות או סיכונים מערכתיים מסוימים. אם מערכת AI יוצרת אפליה בלתי מכוונת כלפי קבוצת לקוחות או כושלת באופן שיטתי, מבטח עשוי לטעון שסיכונים אלגוריתמיים מסוג זה לא נלקחו בחשבון בפרמיה המקורית ולכן אינם מכוסים.
- כיסוי אובדן רווחים (Business Interruption) סטנדרטי דורש לרוב "נזק פיזי" כטריגר. תקלה או השבתה של מערכת AI שעוצרת את פעילות העסק לא בהכרח עומדת בדרישה זו, ומשאירה את החברה ללא פיצוי על אובדן ההכנסות.
- ביטוחי סייבר מכסים התקפות זדון ופריצות, אך אם AI נכשלת לא בגלל מתקפה אלא עקב שגיאה פנימית או החלטה שגויה "מעצמה", ייתכן שזה מחוץ לתרחישי הכיסוי המוגדרים של הפוליסה.
השלכות מעשיות כבר היום
ה"שטחים האפורים" הללו אינם תיאורטיים בלבד. חברות כבר נתקלו במצבים שבהם אירוע הקשור ל-AI נפל בפער כיסוי. בתחום הפיננסים, למשל, היו מקרים שאלגוריתמי מסחר גרמו להפסדים עצומים – ומבטחים טענו אחר-כך שהנזק אינו מכוסה כי לא נגרם מ"התקפת סייבר חיצונית" או שסווג כ"סיכון עסקי" מוחרג. במקרה אחר, מבטח בריאות גדול בארה"ב השתמש במערכת AI כדי לאשר או לדחות אשפוזים; אלגוריתם אגרסיבי מדי דחה אשפוזים של מטופלים קשישים בניגוד להמלצות הרופאים.
כאשר התגלתה המדיניות הזו ותובענה ייצוגית הוגשה, התברר שהמבטח עצמו עלול להתמודד עם אחריות משפטית – ושוב צף הדיון: האם ביטוח האחריות המקצועית של המבטח מכסה החלטות שגויות שנבעו מאלגוריתם אוטומטי? בכל מקרה כזה אנו רואים כיצד שפת הפוליסה לא הדביקה את המציאות הטכנולוגית, ונוצרים פערי הגנה למבוטחים.
איך סוגרים את הפערים: בתגובה לסיכוני ה-"AI השקטה" הללו, המבטחים וסוכני הביטוח מתחילים לפעול. חלקם עורכים סקירה מחודשת של פוליסות קיימות כדי להבהיר במפורש אילו תרחישי AI נכללים או מוחרגים, במקום להשאיר זאת לפרשנות בדיעבד.
אנו רואים פיתוח נספחים (Endorsements) מיוחדים – למשל, הרחבה שקובעת באופן חיובי כי נזקים שנגרמו על ידי החלטות AI ייחשבו כ"מקרה מבוטח" בפוליסה, או לחלופין סעיף שמבהיר שביטוח אחריות מקצועית כולל גם שגיאות שנעשו תוך שימוש בכלי AI. במקרים מסוימים, בעיקר בחו"ל, צצות פוליסות ייעודיות לביטוח אחריות בינה מלאכותית, שנועדו למלא בדיוק את החלל שפוליסות רגילות לא מכסות. עבור חברות, המשמעות היא שיש לפעול בצורה פרואקטיבית:
- הערכת סיכונים: רצוי לבצע מיפוי של אופן השימוש ב-AI בעסק והתסריטים הגרועים ביותר שעלולים להתרחש. תרגיל כזה עשוי לחשוף, למשל, שמערכת AI קריטית עלולה לגרום הן לאירוע סייבר והן לנזק בטיחות פיזי – שילוב שלא נצפה בעת רכישת הביטוח. זיהוי הסיכונים הייחודיים הוא צעד ראשון בסגירת הפערים.
- סקירת פוליסות קיימות: לאור אותם תרחישי סיכון, יש לעבור על פוליסות הביטוח הנוכחיות (רכוש, אחריות, סייבר, חבות מקצועית וכד') בסריקה דקדקנית. חשוב לשים לב לניסוחים כמו "חריג תקלת מחשב" או דרישה לפיקוח אנושי – האם הפוליסה מכסה "כשל תוכנה" או רק "רשלנות אנושית"? גילוי מוקדם של פערים כאלה חיוני כדי לפתור אותם מול המבטח לפני אירוע, ולא אחריו.
- מילוי החוסרים: אם מתגלים סיכוני AI שאינם מקבלים מענה, יש לדון עם חברת הביטוח או הברוקר לגבי פתרונות. ניתן להרחיב כיסוי באמצעות riders – למשל, להוסיף "כשל אלגוריתם" כסיכון מכוסה בביטוח הסייבר, או לוודא שההגדרה של "מקרה ביטוחי" באחריות מקצועית כוללת תביעות עקב ייעוץ שגוי שמקורו בכלי תוכנה בינה מלאכותית. במקרים מסוימים ניתן לרכוש פוליסה נפרדת ייעודית ל-AI המכסה תקלות אלגוריתמיות, טעויות מודל וכדומה. שוק הביטוח בארה"ב, באירופה ובלויד'ס שבלונדון כבר החל להציע מוצרים כאלה – הם חדשים ולא זולים, אבל זמינים למי שחושש מסיכוני AI ספציפיים. העיקר הוא לקבל הסכמה כתובה וברורה לכיסוי – לא להשאיר נושא כה חשוב לאזור האפור של "יהיה בסדר".