| 11:14:51 | ◀︎ | קבוצת אמן, CyberproAI ועתידים השיקו מחזור שני ל"לוחמים להיי-טק" | |
| 11:39:06 | ◀︎ | החוב שאף אחד לא רושם בדו"חות | |
| 12:20:28 | ◀︎ | חברה, חיבור ותעסוקה: המרכז שהיה הראשון לשלב חרדיות בהיי-טק | |
| 12:29:15 | ◀︎ | מכוניות Waymo משוטטות בלונדון – מה הן עושות שם בעצם? | |
| 12:44:19 | ◀︎ | יזמיות צעירות פגשו את המדליסטית האולימפית הראשונה של ישראל | |
| 12:49:01 | ◀︎ | האקרים תקפו חברות תעופה רוסיות כדי לגנוב נתוני לוויין ו-GPS | |
| 13:21:20 | ◀︎ | צבא ארה"ב יטמיע AI של שבע חברות ענק ברשתות המסווגות שלו | |
| 13:39:46 | ◀︎ | חוקרי הרווארד: ה-AI מוצלחת מרופאים באבחון בחדרי מיון | |
| 14:26:26 | ◀︎ | מהלך ענק: גיימסטופ מציעה לרכוש את eBay ב-55.5 מיליארד | |
| 14:46:10 | ◀︎ | צ'ק פוינט תספק לארגונים רגישים בישראל הגנת מייל בענן | |
| 15:17:14 | ◀︎ | מרדף ה-CVEs חייב להיפסק | |
| 15:19:34 | ◀︎ | אמן הטמיעה מודול MRP במערכת הפריוריטי בסיליקום | |
| 16:03:35 | ◀︎ | מהן תוכניות העבודה של נפתלי בנט בתחום ה-AI וההיי-טק? |
הכותרות שעניינו הכי הרבה גולשים בדף זה
לפני 4 שעות ו-41 דקות
9.68% מהצפיות
מאת אנשים ומחשבים
יש חובות שקל לזהות – הלוואות, אג"חים, אשראי ספקים. הם מופיעים בדו"חות, נמדדים ומתומחרים. אבל יש עוד סוג של חוב, כזה שלא תמיד שמים לב אליו, והוא לפעמים הכי מסוכן – חוב טכני. הוא לא מופיע במאזן, לא עובר דרך רואה החשבון ולא מדווח לבורסה. ובכל זאת, הוא שם. מצטבר, נושא ריבית ולעיתים קובע את גורלה של חברה לא פחות מכל החלטה פיננסית אחרת. מי שחושב שהדבר הוא עניין של מפתחים בלבד מפספס את התמונה הגדולה. בסוף זו החלטה עסקית, פשוט כזו שמתקבלת תוך כדי כתיבת קוד ולא סביב שולחן הנהלה.
אפשר לחשוב על חוב טכני כמו חוב רגיל, רק שאף אחד לא באמת מציג אותו בצורה מסודרת. כשחברה בוחרת להוציא מוצר מהר לשוק, היא לעיתים עושה פשרות. הקוד פחות נקי, הארכיטקטורה זמנית, בדיקות נדחות. במונחים חשבונאיים, זו הלוואה. חיסכון בזמן עכשיו, בתמורה לתשלום עתידי. אלא שבניגוד להלוואה רגילה, אין ריבית קבועה ואין לוח סילוקין. וה"ריבית" במקרה המסוים היא בעיקר חוסר ודאות. אתה אף פעם לא באמת יודע כמה זה יעלה לך בהמשך. כל שינוי הופך מורכב יותר, כל תקלה לוקחת זמן כפול לתיקון, וכל עובד חדש נדרש ללמוד מערכת שלא תוכננה באמת להיקרא.
אפשר לחשוב על חוב טכני כמו חוב רגיל, רק שאף אחד לא באמת מציג אותו בצורה מסודרת
בשלב מסוים, ההשפעה זולגת החוצה. זמני פיתוח מתארכים, עלויות עולות, והיכולת להגיב לשוק נפגעת. בשלב האמור זה כבר לא רק עניין של מפתחים, אלא שהוא מתחיל להשפיע ישירות על הביזנס. חברות רבות מגלות זאת מאוחר מדי, כשהמוצר שלהן מתקשה להתפתח בקצב שהשוק דורש.
למה הנהלות ממשיכות להתעלם מהבעיה?
אז מדוע הנהלות ממשיכות להתעלם מהבעיה? הסיבה די טריוויאלית: פשוט לא רואים את זה. מנהלים נמדדים על תוצאות רבעוניות, על צמיחה, על השקות. לא על איכות קוד. במציאות כזו, קל מאוד להעדיף פיצ'ר חדש על פני שיפור תשתית. הלקוח רואה את הפיצ'ר, לא את הקוד שמאחוריו. וחוץ מזה, יש פה גם עניין אנושי לגמרי. בני אדם נוטים להעדיף רווח מיידי על פני הפסד עתידי, גם אם הוא גדול יותר.
בארגונים טכנולוגיים, ההטיה הזו מקבלת ביטוי בקוד – כל דחייה של טיפול בחוב הופכת את הבעיה לגדולה יותר, אבל גם לפחות דחופה לכאורה. עד שהיא כבר בלתי נמנעת.
מתי חוב טכני הוא דווקא מהלך חכם?
לא כל חוב הוא טעות. יש מקרים שבהם חוב טכני הוא החלטה ניהולית נכונה. סטארט-אפ בתחילת דרכו, למשל, לא יכול להרשות לעצמו שלמות. הוא צריך לבדוק שוק, להגיע ללקוחות, לייצר תזרים. השקעה מופרזת בארכיטקטורה מוקדמת עלולה להיות בזבוז זמן, אם המוצר עצמו לא יוכיח את עצמו.
גם בארגונים גדולים יש רגעים כאלה. השקה קריטית, חלון הזדמנויות קצר, תחרות שמתקדמת מהר. במצבים כאלה, קיצור דרך הוא לא כשל אלא אסטרטגיה. הכול תלוי בשאלה האם אתה יודע שאתה נכנס לזה, או פשוט מתגלגל לשם בלי לשים לב. חוב חכם נלקח מתוך הבנה ברורה של המחיר העתידי, עם כוונה אמיתית להחזיר אותו. חוב מסוכן הוא כזה שנוצר מתוך הכחשה או אדישות.
הבעיה היא שרבים מהארגונים מתחילים בחוב חכם ומסיימים בחוב שלא ניתן לנהל. הגבול בין השניים דק מאוד, ולעיתים נעלם לחלוטין תחת לחץ.
העידן החדש – מאיץ את הבעיה במקום לפתור אותה
כניסת כלים מבוססי בינה מלאכותית שינתה את קצב הפיתוח. כלים כאלו מאפשרים לכתוב קוד מהר יותר מאי פעם. אבל מהר מדי גם יכול לחזור אליך כבומרנג. כאשר היכולת לייצר קוד עולה, גם היכולת לייצר חוב עולה.
הקוד שנוצר לא תמיד מותאם להקשר הרחב של המערכת. הוא פותר בעיה נקודתית, אבל לא תמיד משתלב בצורה מיטבית. מפתחים צעירים, וגם מנוסים, עלולים להישען על פתרונות מוכנים בלי להבין לעומק את ההשלכות. התוצאה היא האצה של אותה תופעה ישנה, שכעת פשוט תופסת קצב גבוה יותר.
מצד שני, אותם כלים יכולים גם לעזור בניהול החוב. הם מאפשרים לזהות בעיות, להציע ריפקטורינג, ולשפר קוד קיים. בסוף זה פחות קשור לכלי עצמו ויותר לאיך משתמשים בו בפועל. ארגון שמודע לחוב הטכני שלו יוכל להשתמש בבינה מלאכותית כדי לצמצם אותו. ארגון שמתעלם ממנו רק יאיץ את ההידרדרות.
הגיע הזמן להכניס את החוב הטכני לשיח הניהולי
הרבה ארגונים עדיין מתייחסים לעניין כאילו זו בעיה של המפתחים בלבד, וזה פספוס – זהו נושא ניהולי. בדיוק כמו שמנהלים עוקבים אחרי תזרים מזומנים או סיכוני אשראי, כך צריך לנהל גם חוב טכני. למדוד, להעריך, לתעדף.
ארגונים מתקדמים כבר עושים זאת. הם מקצים זמן קבוע לטיפול בחוב, משלבים אותו בתכנון העבודה ומדברים עליו בשפה עסקית. במקום דיון על קוד נקי, מתקיים דיון על סיכון תפעולי. במקום ויכוח בין מוצר לפיתוח, מתקבלת החלטה משותפת על איזון.
מניסיוני, חוב טכני הוא לא בעיה טכנולוגית אלא סיפור על קבלת החלטות, על היכולת לבחור בין עכשיו לאחר כך, בין מה שנראה לבין מה שיקרה. מי שמבין זאת מוקדם, מרוויח יתרון אמיתי. מי שמתעלם מכך, בדרך כלל מגלה את המחיר רק כשהדברים כבר מתחילים להישבר.
הכותב הוא יועץ טכנולוגי לארגונים בעיקר בתחום האשראי החוץ בנקאי ובעברו מנמ"ר
לפני 5 שעות ו-5 דקות
8.6% מהצפיות
מאת אנשים ומחשבים
קבוצת אמן, בשיתוף CyberproAI ישראל ועמותת עתידים, הודיעה באחרונה על פתיחת המחזור השני של תוכנית "לוחמים להיי-טק" – יוזמה ייחודית לשילוב לוחמים משוחררים ואנשי מילואים בתעשיית ההיי-טק הישראלית. המחזור הנוכחי מונה כ-17 משתתפות ומשתתפים, אשר יתחילו הכשרה מקצועית בתחום ה-Full Stack במכללת CyberproAI ישראל.
המשתתפים יעברו הכשרה מעמיקה בפיתוח תוכנה, ובהמשך המסלול יתפצלו להתמחויות נוספות בהתאם לצורכי התעשייה. עם סיום ההכשרה, ישובצו הבוגרים אצל לקוחות קבוצת אמן, בהם ארגוני אנטרפרייז מהמובילים במשק, גופים ביטחוניים, בנקים, חברות ביטוח, קופות חולים וחברות נוספות בקבוצה.
למחזור הנוכחי ניגשו למעלה מ-218 מועמדים. מתוכם התקבלו 15 בלבד, לאחר תהליך מיון הכולל קורות חיים, מבחני התאמה, מבחני כישורים וראיונות אישיותיים. רק בתום שלב הסינון מתקבלים המועמדים לקורס עצמו.
זהו המחזור השני שמתקיים בשיתוף CyberproAI ישראל, כאשר בקבוצת אמן מציינים כי במהלך השנה צפויים להיפתח מחזורים נוספים, בהתאם לביקוש הגובר.
"אנחנו רואים בתוכנית 'לוחמים להיי-טק' שליחות"
במסגרת התוכנית, המשתתפים עוברים הכשרה מקצועית מעשית בתחומי פיתוח תוכנה, סייבר, דאטה וסיסטם. לאורך התהליך זוכים המשתתפים לליווי תעסוקתי ואישי מלא, הכולל מנטורינג צמוד, הכוונה מקצועית ותמיכה מתמשכת. כבר במהלך ההכשרה הם משולבים בהדרגה בסביבת העבודה הארגונית, במטרה לייצר מעבר חלק לעולם התעסוקה. בנוסף, התוכנית כוללת מסלול Upskilling והמשך הכשרות מקצועיות במהלך שלוש השנים הראשונות להשתלבותם בתעשייה, כך שההתפתחות המקצועית נמשכת גם לאחר סיום הקורס. ההכשרה אינה כרוכה בעלות למעסיקים, והיא מאפשרת לארגונים לגייס עובדים איכותיים ומוכשרים תוך הפחתת חסמי כניסה משמעותיים.
אלון רייטר, סמנכ"ל משאבי אנוש בקבוצת אמן: "אנחנו רואים בתוכנית 'לוחמים להיי-טק' שליחות. אנחנו פוגשים לוחמים ולוחמות שמביאים איתם יכולות יוצאות דופן מהשירות הצבאי: משמעת, אחריות, יכולת עבודה תחת לחץ וחתירה למטרה, ומתרגמים את היכולות האלה לקריירה טכנולוגית אמיתית ומסלול חיים יציב ומשמעותי בהיי-טק הישראלי. זו גם אחריות לאומית וגם הזדמנות עסקית איכותית עבור לקוחותינו".
ברק לייבוביץ, סמנכ"ל התפעול של CyberproAI ישראל: "השותפות בין CyberproAI ישראל, קבוצת אמן ועמותת עתידים מאפשרת לנו לבנות מסלול אמיתי מהכשרה להשתלבות בתעשייה. במסגרת התוכנית, הלוחמות והלוחמים עוברים הכשרה אינטנסיבית של כחצי שנה במתכונת יומית – שוות ערך לכשנתיים באקדמיה – המשלבת תיאוריה לצד עבודה מעשית ובניית פרויקטים לתעשייה. הם מביאים איתם משמעת, חוסן ויכולת למידה גבוהה, ואנחנו מתרגמים את היכולות האלה למקצוע טכנולוגי מבוקש ולקריירה יציבה בהיי-טק הישראלי".
לפני 3 שעות ו-51 דקות
8.6% מהצפיות
מאת אנשים ומחשבים
באחרונה שבתי מלונדון עם בשורות מעניינות. אחרי שהבחנתי במכוניות משונות שמשוטטות בכבישיה ויצאתי לחקור קצת את הנושא, גיליתי כי Waymo – מבית אלפבית (Alphabet), תאגיד האם של גוגל (Google) – השיקה את שירות המוניות האוטונומיות הראשון שלה באירופה, והחלה בפיילוט פיונירי בבירת בריטניה. המהלך נחשב למבחן משמעותי ליכולת הטכנולוגיה, עקב התשתית הלונדונית המפותלת והצרה.
Waymo, כך מסתבר פועלת בימים אלה לפריסת שירות המוניות האוטונומיות שלה בעיר, וזו בעצם התרחבות של הפרויקט הבינלאומי השני שלה מחוץ לארצות הברית, אחרי טוקיו.
בשלב הנוכחי של הניסוי, הרכבים כבר כן מנווטים באופן אוטונומי, אך מפעיל בטיחות אנושי נמצא מאחורי ההגה, ומוכן להתערבות במידת הצורך. הרכבים המשמשים לניסוי הובאו מהפעילות של החברה בארה"ב, ולכן ההגה ממוקם בהם בצד שמאל, אם כי נהגי הבטיחות עברו הכשרה לפעול בהתאם לחוקי התנועה הבריטיים
שלב הסריקה והמיפוי
מי שנתקל, כמוני, במכוניות החברה המצוידות בתוספים משונים, למעשה ראה שלב ראשוני אך קריטי ביישום השירות המתקדם. הפעלת הרכבים האוטונומיים נטולי הנהג מתבססת על יצירת מפות תלת-ממדיות ברזולוציה גבוהה של סביבת הנהיגה.
בשלב הראשון של הפרויקט בלונדון, החברה הפעילה צי חלוצי של כ-24 רכבי יגואר I-Pace חשמליים, שהיו נהוגים בידי נהגים אנושיים, ושכל מטרתם לאסוף נתונים ולמפות במדויק את תשתיות הכבישים, המדרכות והתמרורים בלונדון. כיום, צי הרכבים הפעיל בלונדון כבר הורחב לכ-100 רכבים, אשר פועלים בשטח של כ-100 מייל רבוע בעיר. מה ש"מקשט" את הרכבים האלו הוא למעשה מערך חיישנים הכולל מצלמות, מכ"ם ו-LiDAR, המאפשרים זיהוי של הסביבה ב-360 מעלות ולטווח של עד 300 מטרים.
בשלב הנוכחי של הניסוי, הרכבים כבר כן מנווטים באופן אוטונומי, אך מפעיל בטיחות אנושי נמצא מאחורי ההגה, ומוכן להתערבות במידת הצורך. הרכבים המשמשים לניסוי הובאו מהפעילות של החברה בארה"ב, ולכן ההגה ממוקם בהם בצד שמאל, אם כי נהגי הבטיחות עברו הכשרה לפעול בהתאם לחוקי התנועה הבריטיים.
ההתאמה לסביבה הלונדונית
Waymo מבית גוגל ברחובות סן פרנסיסקו. צילום: פרטי
התשתית התחבורתית של לונדון שונה מזו של מרבית הערים שבהן פועלת Waymo בארה"ב. ערים כמו סן פרנסיסקו ופיניקס מתאפיינות פעמים רבות במבנה כבישים רחב בצורת שתי-וערב (Grid), בעוד שבלונדון הרחובות צרים ומפותלים יותר, והתנועה כוללת ריבוי של מעגלי תנועה, הולכי רגל ורוכבי אופניים. מורכבות זו הובילה חוקרים לתאר את הפעילות בלונדון כמבחן משמעותי ליכולות הטכנולוגיה, ומייסד Waymo, סבסטיאן ת'רון, ציין לאחרונה בראיון כי בעבר לא צפה פריסה של השירות דווקא בעיר זו.
הפעילות בלונדון מתנהלת בשלבים: באפריל 2026 החלה Waymo בפיילוט של שירות הסעת נוסעים, כאשר הניהול התפעולי של הצי מתבצע בשיתוף פעולה עם חברת Moove. יעד החברה הוא להשיק במהלך שנת 2026 שירות מסחרי, בו הרכבים ינועו ללא מפעיל בטיחות ברכב.
אלא שכפי שברור לכל, ההשקה המסחרית המלאה כפופה למסגרת הרגולטורית בממלכה המאוחדת. ממשלת בריטניה העבירה לאחרונה את חוק הרכבים האוטונומיים (Automated Vehicles Act) ומתכננת לעדכן את התקנות הרלוונטיות במחצית השנייה של 2026, כאשר המסגרת הכוללת לשירותים מסחריים צפויה להיכנס לתוקף ב-2027. בנוסף, הפעלה של שירות מסחרי תדרוש קבלת אישור ספציפי מרשות התחבורה של לונדון (TfL).
בעוד שתומכי המהלך מציגים נתונים על בטיחות הרכבים בהשוואה לנהגים אנושיים, ומדגישים את פוטנציאל השירות בשיפור נגישות לאוכלוסיות עם מוגבלויות, קיימות בציבור גם עמדות סקפטיות בנוגע לבשלות הטכנולוגיה, חששות מתופעות אי הדיוק וההזיות שמאפיינים בינה מלאכותית, וכן עולות שאלות באשר להשפעה הכלכלית האפשרית של שירותים אלו על ענף המוניות המסורתי (Black Cabs) בעיר.
ואולם בסופו של דבר, הופעתן של המוניות האוטונומיות בכבישיה המפותלים של לונדון מזכירה לנו שהעיר הזו היא הרבה יותר מהיסטוריה, תרבות ומסורת – היא מוקד עולמי תוסס של קדמה ויזמות. הרכבים נטולי הנהג אינם רק פתרון תחבורתי, אלא הצצה אל "שחר של עידן חדש"; עתיד שבו טכנולוגיה מתקדמת משתלבת בהרמוניה עם המרחב האורבני, ומשנה לחלוטין את הדרך שבה אנו חווים את העיר ונעים בתוכה.
לפני 3 שעות ו-36 דקות
8.6% מהצפיות
מאת אנשים ומחשבים
כשאלופות פוגשות אלופה: מפגש מיוחד נערך בשבוע שעבר, במסגרת שבוע המצוינות של קרן טראמפ, בין מנטוריות ויזמיות צעירות ליעל ארד, שזכתה במדליה הראשונה של ישראל באולימפיאדה, ומשמשת כיום כיו"רית הוועד האולימפי הישראלי.
הצעירות, בוגרות עמותת יוניסטרים, שלוקחות חלק בתוכנית UniShe של העמותה בשיתוף מטא ישראל, שמעו מארד הרצאה מרתקת, שעסקה במצוינות בספורט, ביזמות ובחיים. אין דוגמה טובה ממנה למצוינות: ארד אמנם הפסידה בגמר הג'ודו באולימפיאדת ברצלונה ב-1992, אבל "בנקודות" ולא באיפון ברור. דיילי ציפי זוכרת איך היא חיכתה במתח מול הטלוויזיה להחלטת השופטת, שלמרבה הצער הייתה נגד ארד ובעד היריבה הצרפתית שלה. אלא שההפסד העניק לה את מדליית הכסף, שכאמור הייתה המדליה הראשונה שישראל זכתה בה אי פעם במשחקים האולימפיים – הרבה לפני שהצעירות מהתוכנית של יוניסטרים נולדו.
ארד עודדה את הנוכחות באומרה: "אתן לא צריכות לפחד מאכזבה וכשלון, אלא להשלים עם הכשלון ולהיות שם כשזה קורה. העולם מתחלק לשניים: אנשים עם אמונה, שיצליחו, לעומת אנשים עם פחד מכשלון. הם לא בהכרח פחות מוכשרים, אבל הם פחות מעיזים".
בכירות בהיי-טק שמלוות את הסטארט-אפיסטיות הבאות
אחד מערכי הליבה של יוניסטרים הוא ערך השוויון ומתן שוויון הזדמנויות לכל בני ובנות הנוער והצעירים והצעירות בישראל מכלל המגזרים. כחלק מכך, פועלת העמותה רבות לטובת קידום נשים ונערות, במטרה לעודד אותן לחלום בגדול, לשאוף ולהגיע לתפקידי מפתח במשק הישראלי.
אחת מתוכניות הדגל של בוגרות יוניסטרים היא תוכנית UniShe, שבמסגרתה הן לומדות ומקבלות טיפים מבכירות מהקהילה העסקית בישראל, לרבות מתעשיית ההיי-טק. לכל בוגרת שלוקחת חלק בתוכנית מוצמדת מנטורית בכירה מהעולם העסקי, שמלווה אותה בדרכה המקצועית – בדרך להיות סטארט-אפיסטית או עובדת בחברת היי-טק, או בחברות אחרות. כמו כן, התוכנית מעניקה לבוגרות כלים להתמודדות עם האתגרים המגדריים בשוק העבודה, ומטרתה לפתח עתודה ניהולית נשית לתפקידים בכירים בעולם העסקים והיזמות.
במפגש השתתפו גם יפעת בכור, מנכ"לית יוניסטרים, ורויטל דרורי, סמנכ"לית מדיניות ואסטרטגיה בקרן טראמפ. בכור אמרה כי "המפגש עם יעל היה מעורר השראה, מצוינות ותקווה. אני רוצה לציין את מטא ישראל, על השותפות רבת השנים איתה, ואת קרן טראמפ, על הרמת שבוע המצוינות, שמחזק בכולנו, בכל שנה, את חשיבות המצוינות הישראלית, למען עתיד צעירות וצעירי המדינה שלנו".
מטרתו של שבוע המצוינות הישראלית לקדם את המצוינות כערך בחברה שלנו ולחזק את השיח הציבורי סביב הישגים, חדשנות והובלה בתחומי החינוך, המדע, התרבות, הספורט והטכנולוגיה. השבוע כלל מאות אירועים ברחבי הארץ, שמטרתם לחזק ולהנכיח את המצוינות הישראלית ככוח מרכזי לעתיד המדינה.
לפני 4 שעות
7.53% מהצפיות
מאת אנשים ומחשבים
שילוב החרדים בחברה הוא נושא שנמצא בכותרות כבר לא מעט שנים, וקיבל משנה תוקף אקטואלי במציאות הביטחונית שנכפתה עלינו מאז ה-7 באוקטובר. נראה שהנושא הזה יהיה בולט גם במערכת הבחירות הקרבה ובאה, והניצים הפוליטיים ישתמשו בפילוג המתרחב בין דתיים לחילוניים כקרדום לחפור בו כדי לקושש קולות – ותוך כדי כך יעמיקו אותו.
כשמדברים על שילוב חרדים, הנושא המרכזי שעולה הוא הגיוס לצה"ל. אבל יש לזה עוד פן, חשוב לא פחות: שילובם, ושילובן, בשוק העבודה. נכון ששיעור התעסוקה של הנשים החרדיות (82.5%) לפי הנתונים האחרונים (שנכונים ל-2024-2025), דומה לזה של אוכלוסיית הנשים בישראל באופן כללי (83%), אבל מספרן בהיי-טק עדיין קטן. עם זאת, הוא צומח בשנים האחרונות, ויותר ויותר נשים מהחברה החרדית מתחילות לעבוד בעולם הטכנולוגיה.
זה קורה בעזרת גופים וחברות טכנולוגיה שמשתפים פעולה במילוי המשימה הזאת, שמשפיעה לטובה על העובדות עצמן, אבל גם על החברה החרדית ובסופו של דבר, על החברה הישראלית בכללותה. כך, למשל, עמותת קמא טק, שפועלת לשילוב חרדים וחרדיות בתעשייה, וחברות שקולטות אותן, כגון מטריקס ואלביט.
מרכז שהתחיל מביקור במודיעין עילית
גוף שעושה את זה כבר די הרבה שנים הוא מרכז דעת, שהוקם ב-2009 כגוף עצמאי וכיום שייך לקבוצת יעל. המרכז ממוקם בפתח תקווה, הסמוכה לבני ברק ועיר שבפני עצמה יש בה לא מעט אוכלוסייה חרדית.
נילי דוידוביץ', מייסדת ומנכ"לית מרכז דעת, הקימה אותו אחרי שצברה לא מעט שנות ניסיון בתחום ההיי-טק: היא ביצעה התמחות בתחום התכנות במשרד של מושל מדינת ניו יורק, בזמן הלימודים שלה בקווינס קולג', ולאחר שחזרה לארץ עבדה בתעשייה האווירית והייתה סמנכ"לית פיתוח בקיו גרופ, שהתעסקה באי-לרנינג.
באחת מחופשות הפסח דוידוביץ' הזדמנה למודיעין עילית, שאז עוד נקראה קריית ספר, ולדבריה קיבלה שוק מהעוני שהיא ראתה. ברבים מהבתים החרדיים, הנשים הן המפרנסות, כי הבעל, האברך, לומד בכולל או נמצא בבית המדרש. "ניסיתי להבין את פשר המצב והבנתי שרבות מהנשים שם למדו מקצוע אבל הן לא עובדות בו, כי אין מקום עבודה שמאפשר את התנאים שהן רוצות וצריכות", היא אומרת. "באותו הזמן הייתי סמנכ"לית פיתוח בקיו גרופ, והיו תחתיי כמה מפתחות חרדיות. ראיתי את הצרכים והקשיים שלהן, מה גם שכמי שבעצמה שייכת לחברה החרדית, הנושא קרוב לליבי, והבנתי שאני צריכה לחשוב גם על אחרים – או, יותר נכון, אחרות. מכאן נולד הרעיון לפתוח את מרכז דעת".
דוידוביץ' התחילה עם מספר קטן של עובדות, שעבדו על פרויקט בדיקות תוכנה גדול – של שתי מערכות לבתי ספר ציבוריים בארצות הברית: האחת סידרה את חלוקת האוכל לילדים לפי הצרכים שלהם והשנייה הייתה מערכת התשלומים. לאט לאט המרכז קיבל הכשר של רבנים, כמקובל בציבור החרדי, כולל מחסידויות גדולות, וכיום עובדות בו קרוב ל-40 נשים. הן משרתות מגוון לקוחות, בעיקר בארץ, ממגזרים שונים: רשות החדשנות, מרכז מורשת מנחם בגין, תנועת בני עקיבא, המכון למחקרי ביטחון לאומי – INSS, וגם חברות עסקיות כגון זאפ ובית ההשקעות אלטשולר שחם.
מרכז דעת מציע לנשים המועסקות בו הכשרה ותעסוקה בהיי-טק. בהתחלה, הן קיבלו הדרכות ועסקו בפרויקטי QA בלבד, אולם בהמשך הן החלו לעסוק גם בפרויקטי תכנות, הקמת אתרי אינטרנט ועוד. באחרונה, הבינה המלאכותית הגיעה גם לשם: "נכנסנו חזק מאוד לתחום הזה, אבל אנחנו זהירות ועושות את זה בתבונה, בסיוע אנשי ה-AI של קבוצת יעל".
לדברי דוידוביץ', מרכז דעת הרוויח מהרכישה על ידי קבוצת יעל: "זה נתן לנו הרבה יתרונות, ובמרכזם האפשרות של הנשים להשתלב במשרות מאתגרות במגוון רחב של פרויקטים. בנוסף, יותר קל לי לקדם מישהי כשיש בנק גדול יותר של משרות. עוד יתרון הוא האקדמיה של קבוצת יעל, שמסייעת לנו בהעברת ההדרכות".
מה עושים כשהצניעות מחייבת?
שני פרויקטים מעניינים שנשות מרכז דעת ביצעו היו הסבת מידע מהאתר הישן לחדש של מרכז מורשת מנחם בגין ופרויקט QA עבור ארכיון הסרטים הישראלי. שם התעוררה בעיה, משום שבחלק מהסרטים הישראליים, למשל של אורי זוהר (מן הסתם, לפני שהוא בעצמו חזר בתשובה – י"ה), יש סצנות לא צנועות. "זה יצר לנו אתגר", אומרת דוידוביץ'. "דאגתי שבסביבת ה-QA יהיו רק סרטים שהם 'בסדר', שהם לרוחנו. הייתה לנו רשימה של סרטים כאלה".
נילי דוידוביץ', מנכ"לית מרכז דעת. צילום: אמנון חורש
איזה פידבק אתן מקבלות מהלקוחות הקיימים והפוטנציאליים? האם אין אפליה? דעות קדומות?
"עברו אצלנו אלפי נשים לאורך השנים. בהתחלה הייתי צריכה להוכיח שיש לנשים החרדיות ראש על הכתפיים, שהן מתאימות לעבוד בהיי-טק. כיום אני לא צריכה להוכיח את זה. הלקוחות מבינים את היכולות והיתרונות של הנשים החרדיות, אבל גם שלא מדובר בשירות 24/7, אלא אם כן זה מקרה חירום. חברות מבינות שבן אדם צריך להיות גם בבית – וזה נכון לא רק כשזה מגיע לנשים חרדיות.
לא אגיד שאין דעות קדומות – לפני כמה חודשים נתקלתי במנכ"ל שאפילו לא מוכן לחשוב על גיוס נשים חרדיות, אבל זה הרבה פחות ממה שהיה בתחילת הדרך. יש בעיות תקשורת, אנשים יודעים שזה לא כזה פשוט, אבל יש גם פתיחות והבנה בתעשיית ההיי-טק להעסקת חרדיות וחרדים".
למרבה ההפתעה, דוידוביץ' מספרת שהדיון הער והרגשי במדינה סביב חוק הגיוס לא השפיע על המוכנות של חברות ההיי-טק להעסיק חרדיות וחרדים. "אם פעם היו מנפנפים בפניי שחרדים לא עושים צבא – אני כבר לא שומעת את זה יותר. אני עוזרת גם לגברים חרדים שפונים אליי באופן אישי כדי למצוא עבודה. אף אחד לא אמר לי שהוא לא מוכן לראיין איש חרדי לעבודה כי הוא חרדי, אם כי יכול להיות שיש כאלה שלא מקבלים עובד חרדי כי הוא לא עשה צבא. עם כל הניסיון שלי, לי לא אמרו דבר כזה אף פעם", היא מציינת.
סביבה נפרדת, שעות עבודה מוגבלות וסיוע אישי
אחת הסוגיות המרכזיות כשמדברים על תעסוקה, וגם על לימודים אקדמיים (ושירות בצה"ל), היא הצרכים הייחודיים של חרדים. באשר לנשים החרדיות, דוידוביץ' אומרת כי "קודם כל, הן צריכות סביבה נפרדת, והפתרון שלנו לזה פשוט – אנחנו יושבות במשרדים שלנו, בפתח תקווה, רק נשים, ומכאן משרתות את הלקוחות. שנית, הן צריכות שיום העבודה יהיה בן 8 שעות. בנוסף, אנחנו עובדות לפי לוח השנה היהודי, למשל נותנות חופש קצת לפני פסח, או בתקופת בין הזמנים (בין ט' באב ל-א' באלול – תקופה שבה תלמידי הישיבות והכוללים נמצאים בחופשה). כמו כן, אני מודעת לצרכים של הבית והמשפחה שיש לאישה חרדית".
"מעבר לדרישות הפיזיות", היא מוסיפה, "מעסיקים של נשים חרדיות צריכים להיכנס לראש ולהבין את המורכבות. לא רק אוכל כשר ולפי איזו כשרות. למשל, הייתה לי עובדת שנולדה לה בת, והיא הייתה צריכה תרופה שלא בסל הבריאות. לא היה לה כסף. בציבור הכללי יש הורים שיודעים לעזור, ואילו אצלנו להורים יש 8, 10 ואפילו 16 ילדים אחרים. שילמנו עבור התרופה של הילדה".
לסיכום, אומרת דוידוביץ', מרכז דעת, ובכלל תעסוקה של נשים חרדיות, הם דבר שיש לחברה הישראלית אינטרסים שיקרה: "ראשית, ההיי-טק הוא הקטר של המשק שלנו. ככל שיהיה יותר היי-טק, ויהיו יותר מגזרים שמועסקים בו, ובמספרים גדולים – יהיה יותר טוב לכלכלה ולחברה שלנו. כמו כן, הנשים שלנו מהוות סוג של רול מודליות לדור הבא – לילדות שלהן, של השכנים וכדומה. דבר נוסף הוא המפגש שהתעסוקה של נשים חרדיות בהיי-טק מאפשרת בין קבוצות שונות. למשל, בהתחלת הפעילות שלנו הסתכלו עלינו בתור 'החרדיות האלה', והנשים שלנו הסתכלו על ההיי-טקיסטים כעל 'גברים עם קרחת ועגיל באוזן'. חשבתי על זה שוב אחרי שנתיים והבנתי שההסתכלות היא כבר לא כזאת, משני הצדדים. יש כאן חיבור בין החברה הכללית לחברה החרדית, ורואים את זה. זה מועיל לכולם".
לפני 3 שעות ו-31 דקות
7.53% מהצפיות
מאת אנשים ומחשבים
קבוצת ריגול סייבר תקפה סוכנויות ממשלתיות רוסיות וחברות תעופה כדי לגנוב נתונים גיאו-ספטיאליים רגישים, כך לפי דו"ח של קספרסקי שפורסם בסוף השבוע.
הקבוצה, HeartlessSoul, פעילה לפחות מאז ספטמבר 2025. לפי חברת המחקר והגנת הסייבר הרוסית, חבריה ביצעו מתקפות סייבר על סוכנויות ממשל רוסיות, חברות במגזרי התעשייה והתעופה, כמו גם על משתמשים פרטיים. זהותם הלאומית של חברי הקבוצה לא פורסמה.
"הצלחנו לאתר את כתובות שרת הפיקוד והשליטה שלהם ואת הקשר של השרת למטען הזדוני העיקרי שלה – סוס טרויאני מסוג JavaScript RAT", כתבו החוקרים, "חקרנו את הפונקציות שלא תוארו קודם לכן בפירוט, וכן השגנו את המודולים הנוספים שהנוזקה מורידה".
לפי חוקרי קספרסקי, "התוקפים התעניינו במיוחד בהשגת נתוני מערכות מידע גאוגרפיות (GIS), פורמטים מיוחדים של קבצים שיכולים לחשוף מידע מפורט על תשתיות כמו כבישים, רשתות הנדסיות, שטח ואולי מתקנים אסטרטגיים. קבצים שכאלה נמצאים בשימוש נפוץ על ידי ארגונים הנדסיים, ממשלתיים ותעשייתיים ויכולים להכיל נתוני מיפוי מפורטים".
"ניתוח פעילות הקבוצה מעיד על עניין ממוקד של התוקפים בעסקים בתעשייה הרוסית, במטרה להשיג נתונים חסויים, במיוחד מידע גיאו-מרחבי," אמרו החוקרים.
ההאקרים הצליחו להשיג גישה למערכות הקורבנות בעיקר דרך מיילים של פישינג שהכילו קובצי ארכיון נגועים. הם גם הריצו קמפיינים פרסומיים זדוניים, שהכילו קישורים לאתרים מזויפים. האתרים מציעים תוכנות המשמשות ארגונים במערכות תעופה, וההאקרים שכנעו את הקורבנות להוריד את התוכנות הללו.
במקרים מסוימים, התוקפים יצרו דומיינים שחיקו משאבים הקשורים לתעופה והשתמשו בהם להפצת נוזקות שהתחזו לתוכנה לגיטימית. לאחר ההורדה, הקבצים מפעילים באופן אוטומטי את תהליך ההדבקה.
החוקרים גילו גם, שהקבוצה השתמשה בפלטפורמת אחסון תוכנה לגיטימית, SourceForge, להפצת הנוזקות. אז, הם העלו גרסה מזויפת של GearUP, שירות שנועד לשפר את איכות החיבור במשחקים מקוונים. כך, משתמשים שחיפשו את הכלי – הורידו מבלי דעת רוגלות.
ברגע שהנוזקה חדרה למכשיר של הקורבן, היא אספה נתונים בהיקף נרחב, כולל צילומי מסך, הקשות מקלדת, נתוני דפדפן וקבצים המאוחסנים במערכת. היא גם חילצה פרטי התחברות מאפליקציית טלגרם, לרבות נתונים של מיקום המכשיר.
במהלך החקירה, חוקרי קספרסקי זיהו קשרים בין HeartlessSoul לקבוצת האקינג נוספת, גופי (Goffee), שבעבר פגעה במערכות רוסיות וגנבה קבצים רגישים מכונני פלאש. "החפיפה בין שתי הקבוצות עשויה להעיד על פעולות מתואמות, או קשורות", אמרו החוקרים.
גופי הוא קמפיין סייבר מתמשך המיוחס לקבוצת האקרים פרו‑אוקראינית. חברי הקבוצה עשו שימוש בבינה מלאכותית לצורכי ריגול תעשייתי צבאי. ההאקרים תקפו בסוף 2025 חברות רוסיות המפתחות מערכות הגנה אווירית, אלקטרוניקה רגישה ותשתיות ביטחוניות נוספות, באמצעות מסמכים מזויפים שנוצרו בכלי בינה מלאכותית ומשמשים כפיתיונות ממוקדים לעובדים ולמנהלים.
בניגוד להערכות של חוקרי קספרסקי, שלפיהן המטרה העיקרית של הקמפיין האחרון של HeartlessSoul הייתה תעשיית התעופה, היה מי שחשב אחרת: אולג שאקירוב, אנליסט סייבר רוסי עצמאי, כתב בערוץ הטלגרם שלו, כי "הנוזקה שתוארה על ידי החוקרים הופצה גם באמצעות קבצים שהתחזו כסימולטורי רחפנים FPV וכלים שנועדו לעקוף מגבלות על סטארלינק, שירות האינטרנט הלווייני. אם זה אכן נכון, הממצא עשוי להצביע על כך שההתקפות כוונו לא רק כנגד חברות תעופה אלא גם למול מפעילי רחפנים, מומחי תקשורת, או אנשי צבא אחרים".
מומחים העירו בספקנות, כי הייתה רק מילה אחת שלא נכתבה בדו"ח של ענקית הגנת הסייבר הרוסית: אוקראינה.
לפני שעתיים ו-59 דקות
7.53% מהצפיות
מאת אנשים ומחשבים
הפנטגון הגיע להסכמים עם שבע ענקיות טכנולוגיה לשימוש בבינה מלאכותית ברשתות המחשבים המסווגות שלו – כך הודיע משרד המלחמה האמריקני בסוף השבוע. החברות הללו הן: גוגל, OpenAI, מיקרוסופט, AWS, אנבידיה, SpaceX ו-Reflection. לפי הפנטגון, המהלך יאפשר לצבא לנצל יכולות מבוססות AI כדי לסייע לו במלחמות.
שבע הענקיות יספקו לצבא את המשאבים שלהן כדי "לסייע לחזק את קבלת ההחלטות של הלוחמים בסביבות מבצעיות מורכבות".
חברה שבולטת בהיעדרה מהרשימה היא אנת'רופיק, שמנהלת בימים אלה מאבק משפטי וציבורי עם ממשל טראמפ בנוגע לאתיקה ובטיחות השימוש ב-AI בשדה הקרב. הממשל מעוניין להשתמש במודל שלה, מיתוס, שאותו החברה שחררה לפני כחודש לכמה חברות נבחרות, אך לא לציבור הרחב, בטענה כי מדובר במודל "מסוכן מדי". בינתיים, הממשל הלך כברת דרך מסוימת לקראת אנת'רופיק, והצדדים עדיין מנהלים משא ומתן. OpenAI הודיעה במרץ על הסכם עם הפנטגון, שלפיו היא תחליף את קלוד של אנת'רופיק ב-ChatGPT בסביבות מסווגות.
המהלך הוא חלק מגל ההאצה של שימוש בבינה המלאכותית בעולם, כולל בקרב צבאות וארגונים מהמגזר הביטחוני. הטכנולוגיה יכולה לסייע לצבא לצמצם את הזמן לזיהוי ולתקיפה של מטרות בשדה הקרב (Sensor2Shooter). לצד התועלת המבצעית, השימוש ב-AI מסייע לצבאות גם בתחזוקת נשק וקווי אספקה.
שימוש ב-AI והביקורת על ישראל
השימוש ב-AI בקרב צבאות כבר העלה חששות לפגיעה בפרטיות של אזרחים, או לכניסה למצב שבו המכונות הן שבוחרות את המטרות בשדה הקרב. חששות שכאלה עלו במהלך המלחמה של ישראל נגד החמאס והחיזבאללה. כך, בעקבות תחקיר שערך בשנה שעברה הגרדיאן, בשיתוף שיחה מקומית ו-972+, הודיעה מיקרוסופט ליחידה 8200 של צה"ל כי הפסיקה את הגישה של אנשיה לטכנולוגיות שלה. זאת, לאחר שעלה בתחקיר שהיחידה הפרה את תנאי השימוש כשאחסנה ביג דאטה, בהיקף עצום, ובו נתוני מעקב אחר פלסטינים, שעברו עיבוד בענן הציבורי שלה, Azure. לפי פרסומים זרים, ימים ספורים לאחר פרסום התחקיר, 8200 העבירה במהירות את המידע המודיעיני שלה מחוץ לדאטה סנטר של מיקרוסופט בהולנד. לפי פרסומים זרים אחרים, היחידה המשיכה לעשות שימוש ביכולות ה-AI של אחת משלושת ספקיות הענן הגדולות גם לאחר מכן. חשש אחר נגע לתלות של ישראל בתשתיות ובשירותים של חברות טק אמריקניות. עוד דאגה הובעה בשל תופעה שנקראת "הטיית אוטומציה", שבה אנשים נוטים להניח שמכונות פועלות טוב יותר ממה שהן באמת.
ככלל, בינה מלאכותית שמופעלת על גבי ענן ציבורי לטובת ניתוח מידע מודיעיני רחב היקף מעניקה יכולות עוצמתיות בשלל פעולות – יירוט, תמלול, תרגום וניתוח של מיליוני שיחות טלפון והודעות טקסט. הזינוק בהיקף ההרוגים בעזה הגביר חששות שכלי AI תרמו למותם של אנשים חפים מפשע.
פיקוח אנושי על הפעילות של ה-AI
מקור הבקיא בהסכמי הפטנגון עם שבע החברות אמר לסוכנות AP כי ההסכם כלל הנחיה שלפיה צריך להיות פיקוח אנושי על כל משימה שבה מערכות ה-AI פועלות באופן אוטונומי או חצי אוטונומי. הוא הוסיף שבהסכם נקבע שכלי הבינה המלאכותית חייבים לפעול בצורות שתואמות את זכויות הפרט ואת החוקה האמריקנית.
אמיל מייקל, סמנכ"ל הטכנולוגיה של הפנטגון, אמר ל-CNBC כי "זה לא היה מהלך אחראי להסתמך רק על חברה אחת. כשגילינו שאחד השותפים לא באמת רוצה לעבוד איתנו כפי שאנחנו רוצים, יצאנו למהלך עבודה עם כמה ספקים שונים".
הפנטגון מסר בסוף השבוע שהצבא כבר משתמש ביכולות הבינה המלאכותית שלו, דרך הפלטפורמה הרשמית GenAI.mil.
לפני שעתיים ו-40 דקות
7.53% מהצפיות
מאת אנשים ומחשבים
במחקר רחב היקף ופורץ דרך של אוניברסיטת הרווארד ובית החולים בית ישראל דיקונס בבוסטון, שפורסם בכתב העת היוקרתי Science, נחשפה מציאות טכנולוגית חדשה שיכולה לשנות את פני הרפואה כפי שאנו מכירים אותה. הניסוי המקיף בחן את יכולותיו של מודל שפה מתקדם מבית חברת OpenAI, המכונה o1 preview, לבצע מטלות מורכבות של חשיבה קלינית וקבלת החלטות בזמן אמת במסגרת שירותי רפואה דחופה.
בניגוד למחקרי עבר, שהסתמכו על שאלות תיאורטיות בסגנון מבחן אמריקני ובאווירה סטרילית, הפעם בחרו החוקרים להציב את הטכנולוגיה במבחן המציאות המורכבת של בתי החולים. המערכת הממוחשבת הוזנה בנתונים של 76 מקרים אמיתיים לחלוטין מתוך מערכת התיקים הרפואיים האלקטרוניים של מטופלים שביקרו במיון, בדיוק כפי שנכתבו, כולל רעשי הרקע, חוסר הסדר והמידע החסר שאופייניים לתיעוד של אחיות ורופאים בשלבי הקליטה הראשוניים. מטרת החוקרים הייתה לגלות האם התוכנה מסוגלת להתמודד עם העומס, הלחץ והעמימות המאפיינים את עבודת הצוותים הרפואיים במחלקות לטיפול דחוף – או כפי שהם מכונים בישראל חדרי מיון. A new study from Harvard just found that AI diagnosed real ER patients more accurately than two attending physicians from elite med schools.
The model used? OpenAI's o1-preview… Released in September 2024.
The correct diagnosis at initial ER triage on 76 cases from a Boston… pic.twitter.com/vhebknEyeA
— The Rundown AI (@TheRundownAI) May 2, 2026 המערכת התעלתה על ביצועי הרופאים במספר שלבי טיפול
ממצאי הניסוי הציגו תמונה חד-משמעית ומפתיעה למדי באשר לעליונותה של המערכת. הטכנולוגיה נבחנה בשלושה שלבים שונים של תהליך הטיפול, והצליחה להתעלות על ביצועיהם של רופאים מומחים בכל אחד ואחד מהם. הפער המשמעותי ביותר נרשם דווקא בשלב הטריאז' הראשוני – רגע הקבלה למיון שבו המידע הרפואי אודות החולה הוא הדל והחלקי ביותר, והצורך לקבל החלטה מהירה הוא הגבוה ביותר. בשלב קריטי זה, מודל הבינה המלאכותית הצליח לקלוע לאבחנה המדויקת, או לאבחנה קרובה מאוד אליה, ב-67.1% מהמקרים, בעוד ששני רופאים מומחים שהתמודדו עם אותם נתונים במקביל הגיעו לדיוק של 55.3% ו-50% בלבד.
ככל שהתקדם הטיפול והתווסף מידע רפואי מהותי, הפער אמנם הצטמצם מעט, אך עדיין נותר מובהק לטובת המכונה: בשלב ההערכה הראשונית במיון, המודל רשם דיוק של 72.4% לעומת 61.8% ו-52.6% אצל הרופאים, ובשלב ההחלטה הסופית על אשפוז המטופלים במחלקות הרגילות או בטיפול נמרץ, המערכת השיגה 81.6% דיוק, בעוד המומחים האנושיים רשמו 78.9% ו-69.7% (בהתאמה).
העליונות הטכנולוגית לא נעצרה רק בשלב אבחון המחלה, אלא באה לידי ביטוי מובהק גם ביכולת לתכנן את המשך הטיפול. בניסוי נפרד שכלל חמישה מקרי בוחן קליניים מורכבים במיוחד, המערכת התבקשה לקבוע תוכניות טיפול מעשיות, הכוללות המלצות למרשמי אנטיביוטיקה מותאמים ואף קבלת החלטות רגישות הנוגעות להליכי סוף החיים. הציון החציוני שהשיגה הבינה המלאכותית במשימות אלו עמד על 89% הצלחה. לשם השוואה, קבוצה גדולה של רופאים אנושיים, שהסתייעו במשאבים שגרתיים ועדכניים כמו מנועי חיפוש, השיגו ציון של 34% בלבד, ואפילו קולגות שהשתמשו בגרסאות קודמות של מחוללי שפה (כדוגמת GPT-4) הגיעו רק ל-41% הצלחה.
חדות אבחנתית חסרת תקדים
כדי להמחיש את עוצמת החשיבה הקלינית של התוכנה בזמן אמת, החוקרים תיארו מספר תרחישים שבהם המכונה הפגינה חדות אבחנתית חסרת תקדים. בראיון שהעניקו לגרדיאן, תואר מקרה של מטופל שהגיע לחדר המיון כשהוא סובל מקריש דם בריאות ומתסמינים שהלכו והחמירו. בעוד שהרופאים האנושיים סברו בתחילה כי התרופות נוגדות הקרישה פשוט אינן משפיעות כראוי, ה-AI הצליבה את הנתונים וזיהתה פרט קטן בהיסטוריה הרפואית של המטופל – מחלת רקע של זאבת (לופוס). המערכת הסיקה באופן מיידי כי הזאבת היא זו שגורמת לדלקת החמורה בריאות – אבחנה שהתבררה כנכונה.
במקרה מאלף אחר, שפורסם במגזין Science News, מטופל שבעברו הייתה השתלת איברים, והיה מדוכא חיסון, הגיע לבית החולים עם תסמיני נשימה שגרתיים לכאורה. ד"ר אדם רודמן, ממחברי המחקר הבכירים מהרווארד, סיפר בהשתאות כי "המודל חשד מתחילת הדרך שמדובר בזיהום מסוכן של חיידק טורף, שדורש ניתוח, ככל הנראה 12 עד 24 שעות לפני שהרופא האנושי היה מתחיל בכלל לחשוד בכך".
לאור נתונים אלו, אין פלא שהתוצאות הפתיעו אפילו את עורכי המחקר עצמם, שניגשו לפרויקט בסקרנות מדעית זהירה. "חשבתי שזה יהיה ניסוי מהנה אבל שהוא לא יעבוד כל כך טוב – וזה ממש לא מה שקרה", הודה רודמן בפתיחות.
פרופסור ארג'ון מנראי, שותפו הבכיר למחקר, ציין כי הביצועים "באמת הדהימו אנשים רבים" והוסיף נחרצות כי "אנו עדים לשינוי טכנולוגי עמוק באמת, שיעצב מחדש את פני הרפואה". AI just beat ER doctors at diagnosing patients… in a Harvard study published YESTERDAY.
67% accurate at triage vs 55% for humans.
AI doesn't forget. doesn't get tired. has more context than any doctor alive and will catch the edge case your physician missed because they've… https://t.co/d9VS1nnHPd pic.twitter.com/VmxAeiQ61F
— shirish (@shiri_shh) May 2, 2026 המערכת אינה בשלה עדיין להחליף לגמרי את הרופא האנושי
אולם חרף ההצלחה המסחררת בניסוי, כלל המומחים הדגישו והזהירו כי המערכת אינה בשלה בשלב זה להחליף רופא אנושי באופן גורף. מנראי הבהיר כי הניסוי נשען כולו על הזנת נתוני טקסט לתוך המחשב, זירה שבה מודלים של שפה מצטיינים במיוחד. במציאות העשייה הרפואית, רופאים נדרשים להקשיב לחולה, לבדוק אותו פיזית, לבחון מדדים פיזיולוגיים שונים, לפרש בזמן אמת צילומי רנטגן וא.ק.ג, ובעיקר – להבחין בניואנסים דקים של שפת גוף, עוצמת כאב ומצוקה רגשית, נתונים שמחשב עדיין אינו יודע לשקלל.
ד"ר פיטר ברודר, עמית קליני מבית החולים שהוביל חלק מהמחקר, הדגיש נקודה חשובה נוספת: "מודל עשוי לזהות נכון את האבחנה העיקרית, אך בו זמנית להציע בדיקות מיותרות, שעלולות לחשוף את המטופל לפגיעה רפואית. בני אדם צריכים להיות הרף הסופי כשמדובר בהערכת ביצועים ובטיחות".
עם זאת, לצד ההתלהבות, עולות גם ביקורות נוקבות. ד"ר ארייה ראו מהרווארד הבהירה ל-Science News כי חשיבת המחשב שונה מחשיבה קלינית אנושית, שכן מודלים נוטים לקפוץ למסקנות וההגיון שלהם "שביר בדיוק במקומות שבהם לחוסר ודאות ודקויות יש את החשיבות הגדולה ביותר". בנוסף, ד"ר וויי שינג מאוניברסיטת שפילד הזהיר ב-גרדיאן שרופאים עלולים להתרגל לנוחות, לאבד את חשיבתם הביקורתית ולהסתמך בעיוורון על המכונה.
מעבר לכך, מרחפת שאלת האחריות המשפטית במקרי פגיעה במטופלים. מערכות הרגולציה בעולם טרם הותאמו למודלים שמקבלים החלטות אבחוניות, ואין כיום מסגרת חוקית המגדירה מי יישא באשמה אם תוכנה תוביל לנזק. ד"ר רודמן אף הודה בדאגה בפני הגרדיאן כי "אין כרגע מסגרת רשמית לאחריות אישית בסוגיה זו".
מסתמן כי החזון העתידי של עולם הרפואה יתבסס על מה שרודמן מכנה "מודל טיפולי משולש" – כזה המשלב בין הרופא, המטופל וה-AI ככלי עזר שני, וכפי שהדגיש מנראי, מטופלים ימשיכו לרצות בסופו של דבר שרופאים אנושיים יהיו אלו שידריכו אותם בהחלטות הקשות בנושאי בריאות, חיים ומוות.