
ענקית הטכנולוגיה גוגל פרסמה אזהרה חמורה ויוצאת דופן, לאחר שחשפה כי קבוצות האקרים החלו להשתמש באופן מעשי בבינה מלאכותית כדי לנצל פרצות אבטחה דיגיטליות. לפי הודעת החברה, זרוע המודיעין שלה שיבשה ניסיון של האקרים להשתמש במודל שפה גדול (LLM) כדי לאתר "פרצת יום אפס", חולשה שלא הייתה ידועה קודם לכן, שאפשרה לעקוף מנגנוני אימות דו־שלבי ולחדור למערכות ניהול פופולריות ברחבי העולם.
ג'ון הולטקוויסט, אנליסט ראשי בחטיבת מודיעין האיומים של גוגל, התריע כי "זה רק קצה הקרחון". לדבריו, הרגע שממנו חששו מומחי הסייבר במשך שנים הפך למציאות: האקרים זדוניים מתחמשים בבינה מלאכותית כדי להעצים משמעותית את יכולות הפריצה שלהם. בעוד שמרגלים ממשלתיים פועלים לרוב באיטיות ובחשאיות, פושעי סייבר מנצלים כעת את מהירות ה‑AI כדי לסחוט חברות ולהפעיל תוכנות כופר בקנה מידה רחב ומהיר בהרבה.
האזהרה מגיעה בתקופה שבה מודלים חדשים, כמו Mythos של חברת Anthropic, מציגים יכולות שמטרידות מומחים בתחום. בשל החשש לשימוש לרעה, החברה שחררה את המודל רק לקבוצה מצומצמת של ארגונים מהימנים, מחשש לפגיעה בביטחון הלאומי ובכלכלה העולמית.
עוד באתר:
גם חברת OpenAI הכריזה לאחרונה על גרסה ייעודית של ChatGPT המיועדת ל"מגיני סייבר", שנועדה לסייע באיתור ותיקון פגמים בקוד לפני שינוצלו על ידי גורמים עוינים. המהלך נועד להתמודד עם העלייה בשימוש בבינה מלאכותית לצרכים התקפיים.
במקביל, בממשל טראמפ נשמעים מסרים מעורבים לגבי הפיקוח על התחום. למרות הבטחות קודמות לצמצום רגולציה, הדיווחים האחרונים על מתקפות מבוססות AI מובילים לקריאות לתיאום ממשלתי הדוק יותר.
מומחי אבטחה מעריכים כי העולם נכנס ל"תקופת מעבר" מסוכנת, שבה טריליוני שורות קוד המפעילות תשתיות קריטיות נמצאות בסיכון ממשי, ויידרש זמן רב עד שיושגו הגנות מספקות.























