top of page
שינוי מחושב לוגו

בינה מלאכותית במגזר הציבורי: ארבע אמיתות כואבות שחובה להכיר

אולי יעניין אותך גם...

תכנון בלי הקשבה? הבדידות שעלולה להפוך לנורמה במקום העבודה

תכנון בלי הקשבה? הבדידות שעלולה להפוך לנורמה במקום העבודה

בדידות בעבודה כבר לא תופעת לוואי – היא תמרור אזהרה. למה זה קורה, איך זה משפיע על עובדים, ואיך אפשר לתכנן 2026 אחרת – עם חיבור, הקשבה ותחושת שייכות אמיתית....

סוף שנה בארגון חברתי - איך להתכונן נכון לשנה הבאה

סוף שנה בארגון חברתי - איך להתכונן נכון לשנה הבאה

סוף שנה הוא לא רק זמן לסיכומים, אלא הזדמנות אסטרטגית לארגונים חברתיים. מדריך פרקטי להנהלות: סגירת שנה, תוכנית עבודה, תקציב, פיתוח עובדים וגיוס משאבים....

סדנת AI לגיוס משאבים בארגונים חברתיים (מחזור 2)

סדנת AI לגיוס משאבים בארגונים חברתיים (מחזור 2)

סדנה יישומית + מפגש פולואפ לצוותי הנהלה וגיוס משאבים בארגונים חברתיים. הכרות והתנסות עם כלי AI מתקדמים לייעול תהליכים, ניסוח תכנים ויצירת השפעה אמיתית....

  • תמונת הסופר/ת: אהוד שם טוב
    אהוד שם טוב
  • 1 באוק׳
  • זמן קריאה 5 דקות

עודכן: 4 באוק׳

מעבר להייפ, אל תוך המציאות

השיח הציבורי סביב בינה מלאכותית (AI) גדוש בהבטחות ותקוות. כמעט בכל יום אנו שומעים על הפוטנציאל לחולל מהפכה בשירותים הציבוריים: להפוך אותם ליעילים יותר, נגישים יותר ומותאמים אישית לצרכי האזרח. על פי התפיסה הרווחת, הבינה המלאכותית היא המפתח לעתיד שבו ממשלות פועלות במהירות, בדיוק ובשקיפות שטרם הכרנו.


אך עבור מנהלות ומנהלים במגזר החברתי, אשר פוגשים מדי יום את ההשלכות האנושיות של מדיניות ציבורית, נדרשת פרספקטיבה ביקורתית וחשדנית יותר. ההתלהבות הטכנולוגית אינה יכולה להסתיר את הסיכונים העמוקים הטמונים ביישום לא מבוקר של כלים כה רבי עוצמה. המציאות, כפי שעולה מדוח מעמיק של ה-OECD, מורכבת ומטרידה הרבה יותר. הטרגדיות שאנו רואים אינן מוגבלות לבינה מלאכותית מורכבת מסוג "קופסה שחורה". כפי שמדגימה שערוריית ה"רובודט" באוסטרליה (שהפיקה מאות אלפי הודעות חוב שגויות לאזרחים [מוסבר בסעיף 3]), לעיתים הנזק הגדול ביותר נגרם ממערכות אוטומציה פשוטות יותר, העטופות ברטוריקה של קדמה טכנולוגית.


הבעיה המרכזית היא הסרת שיקול הדעת והאמפתיה האנושית, ללא קשר למורכבות המערכת.

מאמר זה נועד לחשוף את הצדדים האפלים של שילוב בינה מלאכותית במגזר הציבורי. על בסיס ניתוח של 200 מקרי בוחן ומחקר מקיף, הדוח של ה-OECD חושף כיצד יישום נמהר של AI על ידי ממשלות עלול לקבע אי-שוויון, להעצים אפליה ולפגוע באופן אנוש באוכלוסיות המוחלשות ביותר. אלו הן ארבע אמיתות כואבות שמנהיגות ומנהיגים במגזר החברתי חייבים להכיר כדי להגן על הקהילות שאותן הם משרתים ולדרוש אחריות ממוקדי הכוח.


1. אשליית הנייטרליות: איך אלגוריתמים הופכים למנוע של אפליה ואי-שוויון

אחת הסכנות הגדולות ביותר של בינה מלאכותית היא ההנחה השגויה שהטכנולוגיה היא ניטרלית ואובייקטיבית. בפועל, מערכות AI לומדות מדאטה קיים, וכאשר הדאטה הזה משקף הטיות חברתיות ודעות קדומות, האלגוריתם לא רק משכפל אותן, אלא אף מעצים אותן. במקום ליצור שוויון, המערכת הופכת למנוע מתוחכם של אפליה.

הדוגמה הטרגית והמובהקת ביותר לכך היא "שערוריית קצבאות הילדים" (Toeslagenaffaire) בהולנד. במסגרת השערורייה, אלגוריתם פגום של רשות המסים ההולנדית האשים באופן שגוי כ-26,000 משפחות בהונאת קצבאות ילדים. רבות מהמשפחות הללו סומנו עקב טעויות מנהליות זניחות, כמו חתימה חסרה על טופס. התוצאה הייתה הרסנית: משפחות נאלצו להחזיר עשרות אלפי אירו, נדחקו לעוני מחפיר, איבדו את בתיהן, ובמקרים קיצוניים, ילדים הוצאו מחזקת הוריהם.


לב הטרגדיה לא היה רק בטעות הטכנית, אלא באפליה השיטתית שהאלגוריתם קידד. המערכת סימנה באופן לא פרופורציונלי משפחות בעלות אזרחות כפולה או רקע של הגירה, והפכה דעות קדומות חברתיות למדיניות ממשלתית אוטומטית ואכזרית. המקרה ההולנדי הוא תזכורת כואבת לכך שטכנולוגיה אינה פועלת בחלל ריק; היא סופגת את הערכים וההטיות של החברה שבה היא פועלת. עבור המגזר החברתי, הלקח ברור: יש לבחון כל יישום של AI בזכוכית מגדלת כדי לוודא שהוא אינו הופך לכלי נוסף להעמקת פערים חברתיים.


דיבייט שנוצר ע"י AI המציג שתי עמדות מתוך המחקר של ה-OECD

2. מחסום השפה: כשבינה מלאכותית "גלובלית" שוכחת את רוב העולם

אחד הסיכונים הפחות מדוברים ביישום בינה מלאכותית במגזר הציבורי הוא סכנת ההדרה הלשונית. מערכות AI, ובמיוחד מודלי שפה גדולים, נבנות ומתאמנות על מאגרי מידע עצומים. אך הרכב מאגרים אלו רחוק מלהיות מאוזן או מייצג את המגוון האנושי הגלובלי.

על פי נתוני דוח ה-OECD, המציאות חד-משמעית: 59% ממאגרי המידע הפתוחים המשמשים לאימון מערכות AI הם בשפה האנגלית. המשמעות הישירה של נתון זה היא ששירותים ציבוריים מבוססי AI, הנשענים על תשתית זו, יהיו מטבעם פחות יעילים, פחות מדויקים ופחות נגישים עבור מי שאינם דוברי אנגלית. הטכנולוגיה מתוכננת, במודע או שלא במודע, לשרת קהל דובר אנגלית בראש ובראשונה.


כעת, נשליך את הנתון הזה על המציאות הישראלית. מהן ההשלכות של תלות בתשתיות כאלה על שירותים ציבוריים המיועדים לדוברי עברית, ערבית, רוסית או אמהרית? שירותים ממשלתיים קריטיים עלולים להיכשל בהבנת ניואנסים תרבותיים ולשוניים, לספק מידע שגוי או פשוט לא לתפקד כראוי עבור קהילות שלמות. זהו אינו כשל טכני בלבד, אלא יצירת מחסום גישה שיטתי המעמיק את הפער הדיגיטלי והחברתי. תשתית טכנולוגית הנראית אוניברסלית הופכת בפועל לכלי הדרה.



3. אסון ה"רובודט": אוטומציה ללא אנושיות והרס חייהם של מאות אלפים

המרדף אחר "יעילות" הוא אחד המניעים המרכזיים לשילוב טכנולוגיות חדשות במגזר הציבורי, אך הסיפור של תוכנית "רובודט" (Robodebt) באוסטרליה מדגים את המחיר האנושי הנורא של אוטומציה שנעדרת שיקול דעת, פיקוח ואמפתיה. התוכנית, שנועדה לאתר ולגבות תשלומי יתר של קצבאות רווחה, הפכה לאחת השערוריות הציבוריות הגדולות בתולדות המדינה.

חשוב לדייק: תוכנית "רובודט" לא הייתה מערכת AI מורכבת, אלא מערכת החלטות אוטומטית שהתבססה על הצלבת נתונים וחישוב ממוצעים. למרות זאת, כפי שמציין דוח ה-OECD, היא ממחישה בבהירות את הסכנות שבממשל אלגוריתמי ללא פיקוח. ליבת הכשל הייתה טכנית אך בעלת השלכות אנושיות קשות: המערכת השתמשה בשיטה של "מיצוע הכנסות" שנתי כדי לחשב חובות, שיטה שהייתה לא רק לא מדויקת אלא גם לא חוקית. כתוצאה מכך, מאות אלפי אזרחים קיבלו הודעות חוב שגויות, לעיתים בסכומים של אלפי דולרים, ללא כל בסיס. האוטומציה המוחלטת של התהליך הסירה כל פיקוח אנושי, והותירה אזרחים חסרי אונים מול מערכת אטומה שלא ניתן היה לערער עליה.

הנזק היה עצום. אנשים נדחקו למצוקה כלכלית קשה, סבלו מחרדה ודיכאון, ובמקרים מסוימים, הלחץ הנפשי הוביל להתאבדויות. ועדת החקירה המלכותית שבדקה את הפרשה לא חסכה במילים ותיארה את המנגנון כ: "מנגנון גס ואכזרי, שאינו הוגן ואינו חוקי".

פרשת "רובודט" היא סיפור אזהרה מצמרר על הסכנה שבהפיכת היעילות לערך עליון. היא מדגימה כיצד הסרת שיקול הדעת האנושי ממערכות תמיכה חברתיות והחלפתו באלגוריתם קר עלולה להוביל לאסון הומניטרי, גם אם לא מדובר בטכנולוגיית AI מהשורה הראשונה.


4. מלכודת הפיילוטים ופחד האחריות: מדוע המערכת תקועה

מעבר לסיכונים הישירים לאזרחים, הדוח חושף כשלים מערכתיים עמוקים המונעים מממשלות ליישם בינה מלאכותית באופן אפקטיבי. שני ממצאים מרכזיים, לכאורה לא קשורים, מציירים תמונה של מערכת תקועה, הנעה בין חוסר חדשנות לחוסר אחריות.


הכשל הראשון הוא "מלכודת הפיילוטים". הדוח מציין כי יוזמות AI רבות במגזר הציבורי לעולם אינן מתקדמות מעבר לשלב הפיילוט. הן אינן מיושמות בקנה מידה רחב, והלקחים מהן אינם נאספים באופן שיטתי. דוח של הפרלמנט הבריטי, המצוטט במחקר, קובע כי "אין מנגנון שיטתי לריכוז הלמידה מפיילוטים". כתוצאה מכך, רעיונות טובים פשוט גוועים, וההשקעה בהם יורדת לטמיון.


הכשל השני הוא "פחד האחריות", הנובע מתופעה המכונה "הטיית אוטומציה". עובדי ציבור נוטים לקבל את המלצתה של מערכת AI גם כאשר היא נראית להם שגויה. הסיבה לכך, בין היתר, היא החשש לקחת אחריות אישית על החלטה שסותרת את המלצת המכונה. אם יתברר שטעה, קל יותר להטיל את האשמה על האלגוריתם.

התוצאה היא הגרוע מכל העולמות: המערכת חוששת מחדשנות אמיתית שיכולה להועיל לאזרחים, אך בו-בזמן היא מאפשרת למערכות פגומות לפעול ללא פיקוח אנושי אמיץ. האזרחים, ובמיוחד הקהילות המוחלשות, נותרים חשופים גם לסכנות הטכנולוגיה וגם לאדישות הבירוקרטיה.


סיכום: הבינה המלאכותית היא מראה, לא פתרון קסם

ארבע האמיתות העולות מדוח ה-OECD אינן כשלים מבודדים, אלא תסמינים של בעיה יסודית אחת: הנטייה לחפש פתרונות טכנולוגיים למה שהן במהותן בעיות אנושיות, חברתיות ופוליטיות. בינה מלאכותית אינה פתרון קסם ניטרלי. היא כלי רב עוצמה, אך כלי זה הוא בראש ובראשונה מראה. הוא משקף, ולעיתים קרובות מעצים, את הערכים, ההטיות והכשלים המובנים של המוסדות המשתמשים בו. מערכת מפלה תייצר AI מפלה; מערכת אטומה תייצר AI אטום; ומערכת שחוששת מאחריות תתחבא מאחורי AI.


לכן, מוטלת עלינו, מנהיגות ומנהיגים במגזר החברתי, החובה להיות קו ההגנה האחרון. עלינו לדרוש לא רק שקיפות, אלא גם צדק אלגוריתמי. עלינו להיות אלה שבוחנים את הקוד, חוקרים את הנתונים, ומייצגים את האדם שנשכח מאחורי האוטומציה. האתגר אינו להתנגד לטכנולוגיה, אלא לפתח עמדה ביקורתית ודרוכה כלפיה, ולוודא שהקדמה הטכנולוגית אינה באה על חשבון צדק חברתי.

כשאנו חושבים על הכנסת טכנולוגיות דומות לארגונים שלנו, מהי השאלה האחת שאסור לנו לשכוח לשאול?

להצטרפות לקבוצת הווטסאפ השקטה

ניהול דיגיטלי בארגונים חברתיים

bottom of page