הפאשלה של דלויט והמדרון החלקלק של ה-AI

Getting your Trinity Audio player ready...

אי אפשר היה לפספס את הסיפור על דלויט אוסטרליה, שהפך לדוגמה גלובלית הממחישה מה קורה כשרצים אחרי הבאזז של AI בלי לעצור ולשאול: האם המערכת באמת מוכנה להחליף אנשי מקצוע מנוסים בעבודות קריטיות ומה עוד ״מכרו״ לנו בלי לבדוק?

Abstract profile of a woman with colorful geometric shapes and patterns around her.

דלויט, אחת מפירמות הייעוץ העסקי הגדולות והמשפיעות בעולם, קיבלה מממשלת אוסטרליה 440,000 דולר אוסטרלי כדי להכין דו"ח שמנתח את מערכת ההטבות הלאומית ומדיניות הענישה למובטלים.

במקום מחקר מעמיק וחדשני, התוצאה שהוגשה לממשלה באוגוסט 2025, כללה "ai slop" קלאסי – טעויות, הפניות למקורות מזויפים, ציטוטים מגורמים לא קיימים, המצאה של חוקרים ועוד ועוד. חוקר מהאוניברסיטה של סידני היה הראשון לעלות על התקלה. ברפרוף על רשימת המקורות הוא זיהה שמות של מאמרים ומקורות שלמיטב ידיעתו, כמי שמכיר את הנפשות והמחקרים הקיימים בתחום, אינם קיימים. כמה מההפניות נראו מכובדות, אבל אחרי בדיקה קצרה התברר שהם הומצאו לגמרי.

דלויט הודתה בשימוש בבינה מלאכותית לכתיבה חלקית של הדו"ח, ומיהרה לעדכן אותו ולהעלות גרסה חדשה – אחרי שמחקה 14 הפניות למקורות, תיקון טעויות דפוס ושינוי של הרשימה הביבליוגרפית – ובסך הכל כעשרים טעויות שהיו בדו״ח המקורי.

החברה הסכימה להחזיר חלק מהסכום לממשלת אוסטרליה – 97,000 דולר אוסטרלי. לא בדיוק רגע של גאווה עבור החברה הגלובלית. אבל יותר מהבושה שמעתה תהייה מנת חלקה של דלויט בכל פעם שסוגיית ה-AI ואמינות העבודה שהוא מבצע תעלה לדיון, מבלי להתכוון, נחשפה פה נקודת חולשה דרמטית.

הפעם הטעויות המביכות של דלויט נחשפו, אבל מה עם כל אותם מקרים שבהן הטעויות לא נחשפות? ומה אם המידע שאנו מבססים עליו את ההחלטות והפעולות שלנו כחברה, אינו מדויק, איך זה עתיד להשפיע עלינו כחברה? כמה מההחלטות שהתקבלו עד כה היו מבוססות על מידע שגוי. ומה יקרה כשיתברר שגורמים מסוימים השתמשו בכלים כאלה כדי להונות את הציבור, להניע את מקבלי ההחלטות לקבל החלטות שגויות ואף גרוע מכך, כדי לזרוע כאוס, לפלג ולפגוע באוכלוסיות מסוימות?

הבעיה האמיתית היא לא רק שימוש בלתי מבוקר בכלי ai,  אלא היעדר שקיפות מקצועית ובדיקות מקיפות. דלויט לא הודיעה מראש שתיעזר בתוצרים של בינה מלאכותית, היא לא הקפידה על בקרת איכות, ואפילו לא גילתה לממשלה את השיטות הקריטיות שבהן השתמשה. כל מה שהיה דרוש זו טעות אחת והמחיר לתדמית – לא יתואר.

"אי אפשר לתת אמון במסקנות מבוססות ai , אם לא חושפים את התהליך ולא בודקים באמת כל מקור וכל נתון", צוטט סגן מנהל המרכז למשפט רפואי באוניברסיטת סידני בתגובה חריפה. אם כל שלד הדו״ח נשען על שיטה לא מקצועית או לא מבוקרת, ספק אם תצמח ממנו תועלת.

דו״חות כאלה, במיוחד בנושאים של רווחה ואוכלוסיות פגיעות, דורשים דיוק חסר פשרות – כי כל טעות באמת עולה ביוקר למי שגם ככה נשען על שולי הביטחון. הדו״ח שהתבקשה דלויט לכתוב עסק במדיניות ענישה כלפי מובטלים; בעיה שכבר לפני הדו״ח ספגה ביקורת רבה על הפגיעה באנשים שחיים על קצבאות מינימאליות. עמותות וצוותים חברתיים התריעו שוב ושוב על ההשלכות של טעויות במערכת, עד כדי מקרים קשים של פגיעה אישית ואף מוות בקרב נתמכים. ואז עולה סוגיה חדשה לגמרי – האם אפשר באמת להסתמך על תוצר שמספק בינה מלאכותית אם אין שקיפות דיגיטלית ובקרה אנושית?

דווקא המקרה הזה מזכיר כמה אחריות יש לחברות כמו דלויט כמו גם לכל יועץ ניהול, מנהל שיווק, עיתונאי, עורך דין, או כל מי שממהר להכניס AI לכל פינה בארגון. פתאום זה כבר לא רק עניין של טכנולוגיה – זה עניין של אתיקה, שקיפות, מקצועיות וזהירות.

האתגר שאמורים להתמודד איתו ארגונים שעובדים עם ארגונים (B2B) ומייצרים עבורם מחקרים, דו״חות, תכנים ועוד – הוא לא רק לעבוד בצורה יעילה, אלא לדעת לשאול שאלות, לצפות את השאלות הבאות ולבדוק כל שורה. השוק מצפה ליכולת לייעץ, לבדוק ולהפיק ערך. שימוש לא אחראי בבינה מלאכותית עלול לעלות ביוקר – לא רק בכסף, אלא גם באמון הציבור.

 AI הוא כלי, לא פתרון קסם. מה שמורכב, נשאר מורכב. נכון – הטכנולוגיה מביאה מהירות, אפשרויות חדשות ואוטומציה, אבל בעצם דורשת הרבה יותר אחריות.

חברת הייעוץ הגלובלית דלויט הודיעה לאחר האירוע כי היא פועלת להטמיע מערכות AI חדשות בארגון וכי תנקוט בגישה שמנסה לכפר על התקלה ולהפוך לאורים ותומים של תחום הלמידה העמוקה (LLM), אבל האלגוריתם לא יכול להיות זה שבודק את עצמו – וכאן נכנסים לתמונה אנשי המקצוע, והם חייבים לשאול, לחקור, ולא למסור את כל הסמכויות לבינה מלאכותית, טובה ככל שתהיה.

גם אנשי שיווק ותקשורת  – חייבים לזכור שבסופו של דבר כל תוצר צריך לעבור דרך עין ביקורתית, עדיפה אנושית, עם כישורי ניתוח וחשדנות בריאה לדאטה שנראה טוב מדי. שהרי בסוף, מעבר לחדשנות – אמינות היא שם המשחק. בינה מלאכותית יכולה לתת דחיפה, אבל בקלות יכולה גם לייצר מדרון חלקלק של כסף ובעיקר למוטט את האמון הארגוני שנבנה בעמל רב.


אתם טובים ורוצים שכל העולם ישמע על זה?
השאירו פרטים כאן ונחזור אליכם בהקדם!