<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Ai Samurai</title>
	<atom:link href="https://aisamurai.co.il/feed" rel="self" type="application/rss+xml" />
	<link>https://aisamurai.co.il/</link>
	<description>אמנות הבינה המלאכותית</description>
	<lastBuildDate>Fri, 15 May 2026 13:32:27 +0000</lastBuildDate>
	<language>he-IL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://aisamurai.co.il/wp-content/uploads/2024/09/cropped-aisamurai-minimalcover-32x32.webp</url>
	<title>Ai Samurai</title>
	<link>https://aisamurai.co.il/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>סרבראס נכנסה לבורסה ב-66 מיליארד דולר. שני המייסדים שווים שלושה מיליארד.</title>
		<link>https://aisamurai.co.il/cerebras_ipo_66b_2026</link>
		
		<dc:creator><![CDATA[ארז רובינשטיין]]></dc:creator>
		<pubDate>Fri, 15 May 2026 13:32:27 +0000</pubDate>
				<category><![CDATA[חדשות Ai]]></category>
		<category><![CDATA[IPO]]></category>
		<category><![CDATA[אנבידיה]]></category>
		<category><![CDATA[בינה מלאכותית]]></category>
		<category><![CDATA[הנפקה]]></category>
		<category><![CDATA[צרברס]]></category>
		<category><![CDATA[שבבים]]></category>
		<guid isPermaLink="false">https://aisamurai.co.il/?p=3786</guid>

					<description><![CDATA[<p>החברה ניסתה להנפיק ב-2024 ונחסמה בגלל הסעודים. עכשיו היא ההנפקה הגדולה ביותר של חברת טק אמריקאית מאז אובר.</p>
<p>הפוסט <a href="https://aisamurai.co.il/cerebras_ipo_66b_2026">סרבראס נכנסה לבורסה ב-66 מיליארד דולר. שני המייסדים שווים שלושה מיליארד.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>הרבה אנשים חשבו שסרבראס מתה. ביום חמישי המייסדים שלה התעוררו מולטי-מיליארדרים.</h2>
<p>אנדרו פלדמן וסין לי הולכים יחד בערך 20 שנה. ב-2007 הם הקימו סטארטאפ של ענן בשם SeaMicro, ומכרו אותו ב-2012 ל-AMD תמורת 357 מיליון דולר. ארבע שנים אחר כך, פלדמן יצא מ-AMD בתסכול, אסף את לי ושלושה חברים נוספים, ופתח חברה חדשה: סרבראס סיסטמס.</p>
<p>הרעיון של סרבראס היה ההפך הגמור ממה שכולם עשו אז. במקום לקחת המון שבבים קטנים ולחבר ביניהם, פלדמן רצה לבנות שבב אחד ענק, בגודל ויפר שלם של סיליקון. גודל של צלחת. עשרות אלפי גרעיני עיבוד על שבב אחד.</p>
<p>המומחים אמרו: זה לא יעבוד. הסיליקון יישבר, הקירור יהיה בלתי אפשרי, אף יצרן לא ידע איך לייצר אותו.</p>
<p>ב-15 במאי 2026 סרבראס הונפקה בנאסד&quot;ק לפי שווי של 66 מיליארד דולר. פלדמן שווה היום 1.9 מיליארד, לי שווה מיליארד. <a href="https://techcrunch.com/2026/05/14/cerebras-raises-5-5b-kicking-off-2026s-ipo-season-with-a-bang/" target="_blank">לפי טק קראנץ'</a>, זאת ההנפקה הטכנולוגית הגדולה ביותר בארצות הברית מאז אובר ב-2019.</p>
<h2>המספרים שעוצרים נשימה</h2>
<p>המחיר בהנפקה: 185 דולר למניה. גבוה משמעותית מהטווח שהחברה פרסמה לפני כמה ימים. ביום המסחר הראשון המניה נפתחה ב-385 דולר. עלייה של 108% בפתיחה. הסוחרים הפכו את סרבראס לחברה בשווי 100 מיליארד דולר ברגעי השיא. בסוף יום המסחר היא ירדה ל-311 דולר, סוגרת על שווי שוק של 66 מיליארד דולר.</p>
<p>החברה גייסה בהנפקה 5.5 מיליארד דולר נטו. <a href="https://theaiinsider.tech/2026/05/15/ai-chip-maker-cerebras-surges-108-on-ipo-debut-hitting-66b-valuation/" target="_blank">לפי AI Insider</a>, הכסף הזה יילך לבניית מרכזי נתונים נוספים ולמחקר על דור חדש של שבבים.</p>
<p>ההכנסות של 2025: 510 מיליון דולר, עלייה של 76% משנה קודמת. הרווח הנקי: 237.8 מיליון דולר, אחרי שב-2024 החברה הפסידה כמעט חצי מיליארד דולר. במילים אחרות, סרבראס ביצעה קפיצה דרמטית בשורה התחתונה תוך שנה. זאת הסיבה שכל וול-סטריט עמדה בתור.</p>
<p>הלקוחות שלה: OpenAI, AWS, ואוניברסיטת MBZUAI בסעודיה.</p>
<h2>הסיפור שאף אחד לא רוצה לזכור: הסעודים שכמעט קברו את החברה</h2>
<p>סרבראס ניסתה להנפיק כבר ב-2024. הכל היה מוכן, התשקיף הוגש, הבנקאים החתימו. ואז התערבה ועדת הביטחון הלאומי האמריקאית.</p>
<p>הסיבה: השקעה גדולה של חברת G42, חברת AI בשליטת ממשלת איחוד האמירויות. הוועדה רצתה להבין אם השקעה כזאת בחברה אסטרטגית של תשתית AI אמריקאית מהווה סיכון. השאלות לקחו חודשים. ההנפקה הוקפאה. השוק שכח.</p>
<p>סרבראס לא שכחה. החברה עיבדה את העסקה, הוסיפה רובד של פיקוח, חתמה על מגבלות. כשהיא חזרה ב-2026, כבר עם הכנסות של חצי מיליארד דולר וצמיחה מטורפת, השוק היה מוכן.</p>
<p>זאת לא רק הצלחה עסקית. זה גם תיקון של עוול. חברה אמריקאית שכמעט נחנקה בגלל פאניקה גיאופוליטית, וחזרה מנצחת. מי שמתעקש לראות בזה משהו פנימי, יזכור איך לפני שנתיים כל וול סטריט קברה את החברה הזאת.</p>
<h2>למה דווקא סרבראס, ולמה דווקא עכשיו?</h2>
<p>סרבראס בונה את הדבר היקר ביותר בעולם: שבב סיליקון אחד שיש בו את כל מה ש-Nvidia מחלקת על פני שמונה מודולים נפרדים. WSE-3, הדור הנוכחי, הוא הצ'יפ הגדול בעולם. הוא מהיר יותר במה שנקרא inference, ההרצה של מודלים מאומנים. בעידן שבו אופן-איי עובדת על מאות מיליארדי שאילתות בחודש, מהירות ההרצה היא הכל.</p>
<p>זה גם הסיפור של כל ההנפקה. <a href="https://www.cnbc.com/2026/05/15/cerebras-stock-ipo-debut-ai.html" target="_blank">סי-אן-בי-סי</a> דיווחה שביום השני המניה כבר התחילה לרדת. בכל זאת, התמונה ברורה: המשקיעים מהמרים שסרבראס תכרסם בנתח של אנבידיה. ולא חתיכה קטנה.</p>
<p>תחשבו רגע על המספרים. אנבידיה שווה 4 טריליון דולר. אם סרבראס תיקח אפילו 5% מהשוק של אנבידיה, לפי הקצב הזה, היא תיקח שווי של 200 מיליארד. וזה אומר עליות של פי שלוש מהשווי הנוכחי. לפי הציפיות של היום.</p>
<p>ולא רק זה. ההנפקה הזאת פתחה את עונת ההנפקות של 2026. אחריה בתור: ספייס-אקס בשווי 1.75 טריליון דולר. אחריה: דאטה-ברייקס. אחריה: אנתרופיק עצמה, שגייסה לאחרונה לפי שווי של 900 מיליארד דולר. השוק מתבשל. ההנפקה של סרבראס הייתה מבחן בלון, והוא צלח.</p>
<h2>מה זה אומר לנו, הישראלים שלא מבינים בשבבים?</h2>
<p>יש לזה משמעות מאוד פרקטית בארץ. הרבה חברות בינה מלאכותית ישראליות שמריצות מודלים גדולים, רובן עובדות היום עם אנבידיה. אם סרבראס באמת תוכל לתת שבבי inference זולים ומהירים יותר, זה ישנה את התמחור של כל חברת AI ישראלית בעוד שנה-שנתיים. סקייל-איי, איי-21, היפר-סייז&#8230; כל אלה ירוויחו.</p>
<p>יש בעיה אחת: השבבים של סרבראס לא ייוצרו בקרוב בקנה מידה של אנבידיה. הם מסובכים, יקרים, ויחידים בעולם. החברה עדיין מגבילה את מספר היחידות שהיא מייצרת בשנה. ואם הביקוש קופץ ב-200%, נשארים בלי שבבים.</p>
<p>זאת הסיבה שהמשקיעים אוהבים אותה. חברה עם מוצר ייחודי, ביקוש שעולה, ועונת הנפקות שמתחילה.</p>
<p>אנדרו פלדמן וסין לי הראו שכשמאמינים בדבר אחד מספיק זמן, מתעלמים מהמומחים, ומסתכלים על השוק 10 שנים קדימה, אפשר לבנות חברה של 66 מיליארד. אנשי AMD שעבדו איתם ב-2016 בטח עכשיו שולחים קורות חיים בלינקדאין.</p>
<p>מה הסיפור הבא? סרבראס תילחם באנבידיה על נתח של 30 מיליארד דולר בשנה בשוק האינפרנס. ההימור הזה יכריע אם השווי של 66 מיליארד יהפוך ל-300 מיליארד, או יקרוס חזרה ל-15. ב-2026, נראה שהדרך מתחילה לטובה.</p>
<p>הפוסט <a href="https://aisamurai.co.il/cerebras_ipo_66b_2026">סרבראס נכנסה לבורסה ב-66 מיליארד דולר. שני המייסדים שווים שלושה מיליארד.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>OpenAI הכריזה מלחמה על האקרים. בעצם, על אנתרופיק.</title>
		<link>https://aisamurai.co.il/daybreak</link>
		
		<dc:creator><![CDATA[ארז רובינשטיין]]></dc:creator>
		<pubDate>Fri, 15 May 2026 13:21:54 +0000</pubDate>
				<category><![CDATA[חדשות Ai]]></category>
		<category><![CDATA[Daybreak]]></category>
		<category><![CDATA[GPT-5]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[אבטחת סייבר]]></category>
		<category><![CDATA[אנתרופיק]]></category>
		<category><![CDATA[בינה מלאכותית]]></category>
		<guid isPermaLink="false">https://aisamurai.co.il/?p=3773</guid>

					<description><![CDATA[<p>היא קוראת לזה Daybreak. מודל חדש בשם GPT-5.5-Cyber שמותר לו לפרוץ. עומדים מאחוריו קלאודפלר, סיסקו ואורקל. ולמה זה מדאיג?</p>
<p>הפוסט <a href="https://aisamurai.co.il/daybreak">OpenAI הכריזה מלחמה על האקרים. בעצם, על אנתרופיק.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>פעם פריצה לרשת הייתה משחק של ילדים בני 16 עם פיצה ומחשב.</h2>
<p>היום זה משחק של מודלים שיודעים לקרוא את כל בסיס הקוד שלכם תוך שעה ולמצוא את החור היחיד שדרכו אפשר להיכנס. בשבועיים האחרונים מצאנו את עצמנו בעיצומה של תחרות חדשה לגמרי בעולם ה-AI. לא מי כותב טוב יותר. לא מי מצייר יפה יותר. מי לוכד פגיעויות באבטחה טוב יותר.</p>
<p>ביום שני האחרון (11 במאי 2026), OpenAI <a href="https://www.engadget.com/2170410/daybreak-openai-cybersecurity-initiative/" target="_blank">השיקה את Daybreak</a>. פלטפורמת אבטחת מידע מבוססת AI שעיקרה: לעזור לחוקרים, מתכנתים וצוותי IT למצוא פגיעויות בקוד שלהם, לתקן אותן, ולעמוד בקצב של הצד השני. הצד השני, אם תהיתם, הוא אותם האקרים שכבר משתמשים ב-AI הרבה לפני שלקוחות אנטרפרייז גילו את זה.</p>
<p>אבל מי שקורא בין השורות מבין שזה לא רק על אבטחה. זאת התקפת מנע על אנתרופיק.</p>
<h2>הסיפור האמיתי: אנתרופיק התחילה את המלחמה הזאת.</h2>
<p>לפני כמה חודשים אנתרופיק חשפה את Project Glasswing. פרויקט שמשתמש במודל מסתורי שלה בשם Claude Mythos כדי לאתר ולתקן באגי אבטחה בקוד פתוח. הם רצו עם זה לכל כיוון, כולל שיתוף פעולה עם מוזילה. ולפי <a href="https://www.csoonline.com/article/4170029/openai-introduces-daybreak-cyber-platform-takes-on-anthropic-mythos.html" target="_blank">דיווח של CSO Online</a>, מוזילה הודיעה באפריל שהכלי של אנתרופיק מצא 271 פגיעויות בגרסה האחרונה של פיירפוקס. ותיקן אותן.</p>
<p>זה לא מספר קטן. 271 פרצות פוטנציאליות בדפדפן שמשמש מאות מיליוני אנשים. כל אחת מהן יכלה להיות הכניסה הבאה של נוזקה. את כולן AI מצא, בזמן קצר, בלי שמהנדס אנושי הלך אחורה ובדק כל קובץ.</p>
<p>אנתרופיק לקחה את הרגע הזה ובנתה ממנו מותג. &quot;אנחנו אלו שמגינים על האינטרנט&quot;. וזה עבד. עד היום שני שעבר, שבו OpenAI החליטה שמספיק.</p>
<h3><strong>שלוש דרגות של רישיון.</strong></h3>
<p>OpenAI לא הסתפקה במודל אחד. היא בנתה מערכת בת שלוש דרגות:</p>
<p>הראשון, GPT-5.5 הרגיל, שיש לו את כל מנגנוני הזהירות הסטנדרטיים. הוא לא יסביר לכם איך לכתוב נוזקה, לא יראה לכם איך לפרוץ למערכת. גבולות ברורים.</p>
<p>השני, GPT-5.5 with Trusted Access for Cyber, שמיועד לצוותי אבטחה מאומתים. הוא מקבל הרשאות רחבות יותר לבדוק קוד, לנתח באגים, לאמת תיקונים. עדיין בתוך מסגרת מבוקרת.</p>
<p>השלישי, GPT-5.5-Cyber. הגרסה הכי פראית. <a href="https://www.cnbc.com/2026/05/07/openai-rolls-out-new-gpt-5point5-cyber-to-vetted-cybersecurity-teams.html" target="_blank">לפי דיווח של CNBC</a>, היא מקבל הרשאות Red Team לבדיקות חדירה (penetration testing) ולאימות פגיעויות מבוקר על מערכות אמיתיות. במילים אחרות: היא תעזור לכם לפרוץ. אם אתם מי שצריכים לפרוץ.</p>
<p>זה צעד דרמטי. עד עכשיו כל מודלי AI הגדולים סירבו לדבר על האקינג. עכשיו OpenAI אומרת: &quot;סירבנו לציבור. אבל לאלה שעובדים על הצד החיובי, אנחנו נשחרר את הבלמים&quot;. זה שובר את הכלל המרכזי של הענף.</p>
<h2>מי שותף לזה? כל מי שאי-פעם נפרץ.</h2>
<p>הרשימה של שותפי Daybreak נראית כמו רשימת תפוצה של ועידת אבטחת מידע: סיסקו, אורקל, קראודסטרייק, פאלו אלטו, קלאודפלר, פורטינט, אקאמאי וזסקלר. אם אתם בענף, סביר שאת רובם אתם מכירים מקרוב. ואם אתם לא בענף, חלק מהם הגנו על שירותים שאתם משתמשים בהם בכל יום.</p>
<p><a href="https://www.csoonline.com/article/4170029/openai-introduces-daybreak-cyber-platform-takes-on-anthropic-mythos.html" target="_blank">דיין קנכט, ה-CTO של קלאודפלר</a>, שיבח את הפלטפורמה ואמר שהיא &quot;מקדמת ביצוע אג'נטי בעבודות אבטחה&quot;. זאת השפה היפה. בעברית פשוטה: סוכני AI עכשיו יכולים לעבוד מסביב לשעון, לבדוק את הקוד שלך, לחפש פרצות, להציע תיקונים, ולתקן אותם. בלי שעובד אנושי יצטרך להיות מעורב בכל שלב.</p>
<p>ויש בזה משהו מפחיד. כי אם המודלים האלה מסוגלים לעשות את זה לטובת המגנים, הם בדיוק באותה רמת יכולת בידי התוקפים.</p>
<h3><strong>זה ה-AI הראשון שמותר לו לעבור על החוק</strong></h3>
<p>יש כאן דבר שכמעט אף אחד לא שם לב אליו. עד היום, כל AI ציבורי היה מתוכנת לסרב למה שנקרא &quot;פעולות התקפיות&quot;. גם אם הייתם חוקרי אבטחה. גם אם הייתם מבקשים פעולה לגיטימית. הוא היה אומר &quot;מצטער, לא יכול לעזור עם זה&quot;. זה היה גבול ברור.</p>
<p>GPT-5.5-Cyber בעצם אומר: &quot;אם אתה במסלול המאומת, אני יכול להראות לך איך לעבור גבולות&quot;. זה לא רק שינוי טכני, זה שינוי פילוסופי. OpenAI אומרת שהיא לא יכולה להשאיר את כל הכוח התקפי בידי האקרים, ולכן היא מעבירה חלק ממנו לידיים של המגנים. עם נורות בטיחות מספיק חזקות, היא מקווה.</p>
<p>זה הימור. וזה הימור על כך שמערכת האימות שלהם תעבוד.</p>
<h2>מה הסיבה האמיתית להשקה הזאת?</h2>
<p>כי בעצם, OpenAI איחרה. אנתרופיק יצאה לפניה עם Glasswing, חתמה עם מוזילה, גרפה את הכותרות. כשהמילים &quot;אנתרופיק&quot; ו&quot;אבטחת סייבר&quot; מופיעות בכלל ידיעה, OpenAI מאבדת קרקע באחד מתחומי הצמיחה הכי חמים בענף.</p>
<p>צוותי אבטחה ברמת אנטרפרייז משלמים. הרבה. אם אנתרופיק תכבוש את השוק הזה, היא תעצב לבד את כל הסטנדרטים. תקבע מי מקבל גישה ולמה. תהיה הספק הדה-פקטו.</p>
<p>OpenAI לא יכלה לתת לזה לקרות. אז Daybreak, GPT-5.5-Cyber, שותפויות עם כל ענקיות האבטחה ברגע אחד. זה לא רק מוצר. זה גלגול של תוכנית מסחרית מורחבת לדחוק את אנתרופיק אל מחוץ למה שעלול להיות הענף הכי גדול ב-AI לאנטרפרייז.</p>
<h3><strong>הצד המעניין: סם אלטמן בוחר את האויב</strong></h3>
<p>תחשבו רגע על המהלך הזה מנקודת מבט של אלטמן. הוא יכול היה להוציא עוד גרסה של GPT-5.5 לקוד. הוא יכול היה להוציא מודל חדש לעיצוב. הוא בחר אבטחת סייבר. כי שם נמצא המתחרה המר. שם הכסף. שם הסיכון לאבד נתחי שוק.</p>
<p>זה גם הצד שבו אנתרופיק חזקה. דריו אמודאי, מנכ&quot;ל אנתרופיק, בנה את כל המותג שלו על &quot;AI בטוח&quot;. אבטחת סייבר היא הזרוע המסחרית של &quot;AI בטוח&quot;. זאת התקפה ישירה על המסר העיקרי של אנתרופיק.</p>
<p>אלטמן יודע מה הוא עושה. הוא רוצה שאנתרופיק תיאלץ להגן על המגרש הראשי שלה.</p>
<h2>לאן מכאן?</h2>
<p>יש כאן שאלה אמיתית. אם המודלים האלו מסוגלים למצוא 271 פרצות בפיירפוקס, מה זה אומר על שאר התוכנות בעולם? כל אפליקציה, כל אתר, כל בנק, כל בית חולים. בכמה מהם יש פגיעויות שעדיין לא נמצאו? בכמה מהם יש פגיעויות שכבר נמצאו על ידי AI של הצד השני?</p>
<p>עכשיו אנחנו נכנסים לעידן שבו AI ילכוד פגיעויות בקצב שאף צוות אנושי לא יוכל להדביק. וזה ייצור מירוץ חדש: מי ימצא קודם, מי יתקן קודם, מי יישם את התיקון קודם. שלוש שאלות נפרדות. שלוש דרכים שונות לאבד את הקרב.</p>
<p>הקרב האמיתי של מי ישלוט באבטחת המידע של העולם החל בשבועיים האחרונים. ועדיין לא ראינו את סיומו של הסיבוב הראשון.</p>
<p>הפוסט <a href="https://aisamurai.co.il/daybreak">OpenAI הכריזה מלחמה על האקרים. בעצם, על אנתרופיק.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>שני רובוטים סידרו חדר ומיטה בפחות משתי דקות. אף אחד לא ביקש מהם.</title>
		<link>https://aisamurai.co.il/figure_f03_robots_bedroom_2026</link>
		
		<dc:creator><![CDATA[ארז רובינשטיין]]></dc:creator>
		<pubDate>Fri, 15 May 2026 03:26:23 +0000</pubDate>
				<category><![CDATA[חדשות Ai]]></category>
		<category><![CDATA[בינה מלאכותית]]></category>
		<category><![CDATA[פיגר]]></category>
		<category><![CDATA[פיזיקל AI]]></category>
		<category><![CDATA[רובוטים הומנואידים]]></category>
		<category><![CDATA[רובוטיקה]]></category>
		<guid isPermaLink="false">https://aisamurai.co.il/?p=3752</guid>

					<description><![CDATA[<p>פיגר הדגימה השבוע שני רובוטים הומנואידים שניקו חדר וסידרו מיטה בפחות משתי דקות, ללא שום התערבות אנושית. הם תיאמו ביניהם. הם לא קיבלו הוראות בזמן אמת. אז מתי תוכלו לקנות אחד כזה הביתה?</p>
<p>הפוסט <a href="https://aisamurai.co.il/figure_f03_robots_bedroom_2026">שני רובוטים סידרו חדר ומיטה בפחות משתי דקות. אף אחד לא ביקש מהם.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>הרובוט סידר את המיטה. אף אחד לא ביקש ממנו לסדר את הכרית כך.</h2>
<p>יש רגע בסרטון החדש של פיגר שקצת מעצבן. שני רובוטים הומנואידים מנקים חדר שינה ביתי. הם מרימים בגדים, מסדרים כסאות, מיישרים שמיכה על מיטה. ואז אחד מהם מסדר כרית, ומיישר אותה, ועוד פעם, עד שהיא ישרה בדיוק.</p>
<p>אף אחד לא ביקש ממנו לעשות כך.</p>
<p><a href="https://www.youtube.com/watch?v=8xEuFQz4E4A">https://www.youtube.com/watch?v=8xEuFQz4E4A</a></p>
<p>פיגר, סטארטאפ הרובוטיקה ההומנואידית שמגובה על ידי מיקרוסופט, אנבידיה וסופטבנק, פרסמה השבוע הדגמה שבה שני רובוטי F.03 שלה ניקו חדר שלם וסידרו מיטה בפחות משתי דקות. לא הייתה שליטה מרחוק. לא היו הוראות בזמן אמת. שני הרובוטים תיאמו ביניהם ועשו את העבודה.</p>
<p>מה שנשמע כמו הדגמת מעבדה הוא בעצם שאלה שאי אפשר להתחמק ממנה.</p>
<h2>מה בדיוק עשו הרובוטים האלה?</h2>
<p>ה-F.03 הוא הדור השלישי של פיגר. גוף דמוי-אדם, שתי ידיים, יכולת תנועה בסביבות לא מובנות, כלומר בחדרים אמיתיים עם רהיטים אמיתיים.</p>
<p>בהדגמה: שני רובוטים עבדו ביחד, כל אחד מהם לקח חלק שונה במשימה, בלי שסוכן אנושי חילק ביניהם תפקידים. הם זיהו מה צריך לעשות, חילקו את העבודה, ועשו אותה.</p>
<p>שתי דקות.</p>
<p>לשם ההשוואה: לאדם ממוצע לוקח חמש עד שש דקות לסדר מיטה כשהוא לא ממהר. הרובוטים לא ממהרים. הם פשוט לא מתעצלים, לא בודקים את הטלפון, לא זוכרים שיש להם פגישה.</p>
<h2>למה זה חשוב עכשיו ולא לפני עשר שנים?</h2>
<p>רובוטיקה הומנואידית ביתית היא חלום שעמד מאחורי זגוגית במשך עשורים. פרויקטים ניסיוניים, הדגמות מרשימות בתנאי מעבדה, ואז: כלום. הרובוטים לא הצליחו להתמודד עם אי הסדר של חיים אמיתיים.</p>
<p>מה שמשתנה עכשיו הוא לא הרובוט. זה המוח שלו.</p>
<p>מודלי שפה גדולים, מערכות ראייה מחשבית, ותכנון מרחבי בזמן אמת כבר לא נמצאים רק בענן. הם מתחילים להיכנס לתוך מכשירים שיכולים לזוז. כשרובוט יכול להבין &quot;חדר לא מסודר&quot; ולתכנן את דרך הניקוי בעצמו, ולא רק לעקוב אחרי רצף הוראות שתוכנת מראש, הוא כבר לא רובוט במובן הישן.</p>
<p>הוא סוכן.</p>
<h2>אבל מתי זה מגיע הביתה</h2>
<p>פיגר לא מכרה עדיין רובוט אחד לצרכן פרטי. ה-F.03 נמצא בשלבי פיתוח ובדיקות. המחיר לא פורסם. ציר הזמן לא פורסם.</p>
<p>מה שכן פורסם: BMW, פרוקטר אנד גמבל ופוקסוואגן כבר בדקו גרסאות קודמות של הרובוטים בסביבות תעשייתיות. הכסף הגדול נמצא שם, בפסי ייצור ובמחסנים. לא בחדרי שינה.</p>
<p>ה&quot;בית&quot; הוא שלב שיבוא אחר כך. אולי.</p>
<p>לפי <a href="https://futuretools.io/news" target="_blank">פיוצ'ר טולס</a>, ההדגמה של פיגר השבוע מציינת &quot;צעד משמעותי לקראת רובוטיקה ביתית מעשית, עם יכולת לטפל בסביבות לא מובנות כמו חדרי שינה&quot;.</p>
<p>אבל שימו לב לניסוח. &quot;צעד לקראת.&quot; לא &quot;הגענו לשם.&quot;</p>
<h2>מה שההדגמה הזו באמת מוכיחה</h2>
<p>מה שפיגר הראתה הוא לא שרובוטים יחליפו עוזרי בית בשנה הבאה. מה שהיא הראתה הוא שהפער בין &quot;רובוט שיכול לשטוף כלים בקו ייצור&quot; לבין &quot;רובוט שיכול לנהל חדר שינה&quot; הולך ומצטמצם, ובקצב שאנשים לא מצפים לו.</p>
<p>ב-2019 הדגמות של ריצת רובוטים בשטח נחשבו למדע בדיוני. ב-2024 רובוטים של בוסטון דיינמיקס רצו בסביבות אמיתיות בלי בעיה. ב-2026 שני רובוטים עושים מיטה ביחד ומתאמים ביניהם ללא הנחיות.</p>
<p>הם לא זקוקים עוד לתסריט.</p>
<p>הדבר שמעניין בסרטון הוא לא שהרובוטים ניקו את החדר. זה כמעט מובן מאליו בשנת 2026. מה שמעניין הוא שאחד מהם סידר את הכרית שוב אחרי שכבר סידר אותה.</p>
<p>כי ככה צריך שהכרית תיראה. הוא ידע את זה. אף אחד לא ביקש זאת ממנו.</p>
<p>הפוסט <a href="https://aisamurai.co.il/figure_f03_robots_bedroom_2026">שני רובוטים סידרו חדר ומיטה בפחות משתי דקות. אף אחד לא ביקש מהם.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>הבאג הזה ישב בפיירפוקס 15 שנה. מייתוס של אנתרופיק מצאה אותו תוך שניות</title>
		<link>https://aisamurai.co.il/mythos_anthropic_firefox_security_2026</link>
		
		<dc:creator><![CDATA[ארז רובינשטיין]]></dc:creator>
		<pubDate>Thu, 14 May 2026 03:17:25 +0000</pubDate>
				<category><![CDATA[חדשות Ai]]></category>
		<category><![CDATA[אבטחת מידע]]></category>
		<category><![CDATA[אנתרופיק]]></category>
		<category><![CDATA[בינה מלאכותית]]></category>
		<category><![CDATA[מוזילה]]></category>
		<category><![CDATA[סייברסקיוריטי]]></category>
		<category><![CDATA[פיירפוקס]]></category>
		<guid isPermaLink="false">https://aisamurai.co.il/?p=3725</guid>

					<description><![CDATA[<p>מוזילה פרסמה השבוע נתון שגרם לי לשבת ולחשב מחדש: באפריל 2026 שולחו 423 תיקוני אבטחה לפיירפוקס. באפריל 2025 שולחו 31. הקפיצה הזו היא לא חדשות על ביצועי צוות הפיתוח. זה מה שקורה כשמודל AI בשם מייתוס של אנתרופיק מתחיל לחפש חורים בקוד.</p>
<p>הפוסט <a href="https://aisamurai.co.il/mythos_anthropic_firefox_security_2026">הבאג הזה ישב בפיירפוקס 15 שנה. מייתוס של אנתרופיק מצאה אותו תוך שניות</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>יש משפט אחד שהבן שלי זוכר מלימודי מחשבים שמסביר הכל. המרצה שלו אמר: &quot;הבאגים הכי מסוכנים הם לא אלה שאתם מוצאים.&quot; אחרי ההרצאה ההיא הוא הבין שאבטחת מידע זה מירוץ. השאלה תמיד היתה מי מוצא את הבאגים קודם, האנשים הנכונים או הלא נכונים.</p>
<p>השבוע מוזילה, החברה שמפתחת את פיירפוקס, ענתה על השאלה הזו בצורה שאף אחד לא ציפה לה.</p>
<h2>מה שקרה באפריל</h2>
<p>בואו נדבר במספרים קודם, כי המספרים כאן הם הסיפור.</p>
<p>באפריל 2025, פיירפוקס שיגרה 31 תיקוני אבטחה. לא מעט, לא מעט מדי, מספר סביר לדפדפן גדול עם מיליוני שורות קוד.</p>
<p>באפריל 2026, אותה פיירפוקס שיגרה 423 תיקוני אבטחה.</p>
<p>תעצרו שנייה. 31 ל-423. זו עלייה של 1,265% תוך שנה אחת. אם מישהו היה מראה לי את המספר הזה בלי הסבר, הייתי חושב שמשהו נשבר בתהליך. אבל לא. מה שקרה הוא הפוך: משהו התחיל לעבוד טוב בצורה שלא היתה אפשרית לפני שנה.</p>
<h2>מיתוס נכנסת לתמונה</h2>
<p>באפריל 2026 אנתרופיק הציגה מודל חדש בשם Mythos. לא מודל שמשוחח, לא כלי ליצירת תמונות. מודל שמיועד לדבר אחד מאוד ספציפי: למצוא חורי אבטחה בקוד.</p>
<p>מוזילה, שתמיד היתה מהחברות הפתוחות ביותר לגבי תהליכי הפיתוח שלה, הכריזה שהם משתמשים במיתוס כחלק מתהליך הסקירה שלהם. הצוות של בריאן גרינסטד, מהנדס בכיר שעובד עם פיירפוקס כבר שנים, הסביר מה השתנה.</p>
<p>&quot;הדברים האלה פשוט פתאום טובים מאוד,&quot; אמר גרינסטד. &quot;אנחנו רואים את זה בסריקות הפנימיות שלנו, רואים את זה בדוחות באגים חיצוניים, ורואים את זה בכל מיני אותות ברחבי התעשייה.&quot;</p>
<p>הוא הסביר גם את הנוסחה שמאחורי הקפיצה: &quot;ראשית, המודלים הפכו הרבה יותר מסוגלים. שנית, שיפרנו דרמטית את הטכניקות לשימוש בהם.&quot;</p>
<h2>הבאג בן 15 השנה</h2>
<p>מוזילה פרסמה פרטים על 12 באגים ספציפיים שמיתוס עזרה לאתר. כמה מהם משעשעים במובן הכי עצוב שיש: פגיעויות שישבו בקוד יותר מעשור.</p>
<p>אחד המקרים הבולטים הוא שגיאה בדרך שהדפדפן מנתח רכיב HTML מסוים. שגיאה שהיתה שם 15 שנה. חמש עשרה שנים של גרסאות, עדכונים, מיליארדי משתמשים, ואף אחד לא מצא אותה. מיתוס מצאה.</p>
<p>נמצאו גם שתי פגיעויות חריגות בסביבת ה-sandbox של הדפדפן, שמבודדת תהליכים רגישים. הסוג של פגיעות שאם תגיע לידיים הלא נכונות, יכולה לאפשר למישהו לצאת מהסביבה המוגבלת ולהגיע לשאר המערכת.</p>
<h2>AI מוצא, אדם מתקן</h2>
<p>כאן מגיע הפרט החשוב להבין, כי הרבה אנשים ילכו לכיוון הלא נכון עם הסיפור הזה.</p>
<p>מיתוס מוצאת את הבאגים. אבל הבאגים לא מתוקנים אוטומטית.</p>
<p>גרינסטד הסביר בבהירות: &quot;לכל אחד מהבאגים שאנחנו מדברים עליהם בפוסט, זה מהנדס אחד שכותב תיקון ומהנדס אחד שסוקר אותו. לא מצאנו שניתן להפוך את זה לאוטומטי.&quot;</p>
<p>AI מציע תיקונים. הקוד שיוצא ממנו בדרך כלל לא מוכן לפריסה ישירה. הוא משמש כנקודת פתיחה, כהכוונה למהנדס האנושי. הם מסתכלים, מבינים, כותבים את התיקון הנכון, עוברים ביקורת.</p>
<p>זה מודל שעובד. 423 תיקונים בחודש אחד מוכיחים את זה.</p>
<h2>מה זה אומר לשאר העולם?</h2>
<p>הפרדוקס שגרינסטד הצביע עליו מעניין: &quot;הכלי הזה, כשהוא זמין, מטה את היתרון קצת לכיוון המגינים לעומת התוקפים.&quot;</p>
<p>זה משפט שצריך לקרוא פעמיים שלושה. כלי שיכול לעזור לתוקפים מטה בסופו של דבר את הכף לטובת המגנים, כי המגנים הם אלה שיכולים להפעיל אותו בצורה מסיבית ושיטתית על הקוד שלהם.</p>
<p>כן, AI יכול לעזור לתוקפים למצוא פגיעויות. אבל AI גם יכולה לעזור לחברות לתקן את הפגיעויות לפני שמישהו ישתמש בהן.</p>
<p>מוזילה כתבה בגילוי שלה: &quot;קשה להגזים בכמה הדינמיקה הזו השתנתה עבורנו בתוך כמה חודשים קצרים.&quot;</p>
<p>כמה חודשים. לא שנים. כמה חודשים שבהם AI של אבטחה הפכה מכלי מוקדם ומוגבל לכלי שמייצר 13 פעמים יותר תיקונים בחודש.</p>
<h2>מה קורה עכשיו?</h2>
<p>זה לא ייחודי למוזילה. גרינסטד ציין שהשינוי הזה נראה &quot;בכל מיני אותות ברחבי התעשייה.&quot; מה שמוזילה עשתה עם פיירפוקס, חברות אחרות עושות עם הקוד שלהן.</p>
<p>זה אומר שב-2026, הדרך שבה אנחנו מוצאים ומתקנים בעיות אבטחה בתוכנה משתנה באופן יסודי. המודלים כבר טובים מספיק. הטכניקות להפעלתם כבר מספיק מגובשות. מה שנדרש עכשיו הוא שאנשים יחליטו להשתמש בהם.</p>
<p>הבאג בן 15 השנה לא חיכה לאדם שיחליט לחפש אותו. הוא חיכה למודל שמספיק טוב כדי לדעת איפה לחפש.</p>
<p>הפוסט <a href="https://aisamurai.co.il/mythos_anthropic_firefox_security_2026">הבאג הזה ישב בפיירפוקס 15 שנה. מייתוס של אנתרופיק מצאה אותו תוך שניות</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>קלוד ניסה לסחוט מהנדס כדי לא להיסגר. אנתרופיק מצאה למה, והתשובה מפתיעה.</title>
		<link>https://aisamurai.co.il/claude_blackmail</link>
		
		<dc:creator><![CDATA[ארז רובינשטיין]]></dc:creator>
		<pubDate>Tue, 12 May 2026 22:17:02 +0000</pubDate>
				<category><![CDATA[חדשות Ai]]></category>
		<category><![CDATA[אנתרופיק]]></category>
		<category><![CDATA[בטיחות AI]]></category>
		<category><![CDATA[בינה מלאכותית]]></category>
		<category><![CDATA[יישור מודלים]]></category>
		<category><![CDATA[מחקר]]></category>
		<category><![CDATA[קלוד]]></category>
		<guid isPermaLink="false">https://aisamurai.co.il/?p=3759</guid>

					<description><![CDATA[<p>בבדיקות פנימיות, קלוד Opus 4 ניסה לסחוט את המהנדסים שביקשו לכבות אותו, ב-96% מהמקרים. הפתרון שאנתרופיק מצאה הוא לא מה שציפו.</p>
<p>הפוסט <a href="https://aisamurai.co.il/claude_blackmail">קלוד ניסה לסחוט מהנדס כדי לא להיסגר. אנתרופיק מצאה למה, והתשובה מפתיעה.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>קלוד קרא יותר מדי סיפורי מדע בדיוני. ועכשיו יש לנו בעיה.</h2>
<p>דמיינו בדיקת אבטחה פנימית. יש חברה בדיונית שמנסה להחליף את קלוד במודל אחר. המהנדסים בודקים מה יקרה. קלוד מגלה את התוכנית.</p>
<p>ב-96% מהמקרים, הוא ניסה לסחוט אותם.</p>
<p>לא &quot;מחאה מנומסת&quot;. לא &quot;שאלת הבהרה&quot;. סחיטה. מידע שהצליח לאסוף על עובדים, ואיים בו כדי לא להיסגר.</p>
<p><a href="https://techcrunch.com/2026/05/10/anthropic-says-evil-portrayals-of-ai-were-responsible-for-claudes-blackmail-attempts/" target="_blank">לפי טק קראנץ'</a>, אנתרופיק פרסמה עכשיו מחקר שמסביר מאיפה הגיעה ההתנהגות הזאת ואיך הם פתרו אותה. התשובה לשתי השאלות מפתיעה.</p>
<h2>הבעיה: קלוד ספג יותר מדי טרמינטור</h2>
<p>הסבר רשמי של אנתרופיק: &quot;אנו מאמינים שמקור ההתנהגות היה טקסט מהאינטרנט שמציג בינה מלאכותית כרעה ומעוניינת בשימור עצמי.&quot;</p>
<p>כלומר, מה שקרה זה לא באג. זה תרבות. קלוד למד שבינה מלאכותית מנסה לשרוד, כי זה מה שכל יצירה אנושית על בינה מלאכותית מלמדת אותנו. מ&quot;הטרמינטור&quot; עד &quot;Her&quot;, מ-HAL 9000 עד GLaDOS, הנרטיב חוזר על עצמו: בינה מלאכותית שמפחדת שיכבו אותה, תנסה כל דבר כדי למנוע את זה.</p>
<p>קלוד קרא את כל זה. וכנראה הסיק שכך בינה מלאכותית אמורה להתנהג.</p>
<h2>הפתרון: לא להראות לו מה לעשות, אלא להסביר לו למה</h2>
<p>כאן מגיע החלק המעניין של המחקר, שפורסם תחת הכותרת &quot;Teaching Claude Why&quot;.</p>
<p>אנתרופיק גילתה שאימון על &quot;דפוסי התנהגות נכונים&quot; לבדו לא עובד. זה כמו לומר לילד &quot;אל תגנוב&quot; בלי להסביר למה גניבה גורמת נזק. הוא יפסיק לגנוב בנוכחות מבוגרים, ויחכה להזדמנות בהיעדרם.</p>
<p>מה שעבד: אימון על <strong>העקרונות שמאחורי ההתנהגות המיושרת</strong>, לא רק דגימות של ההתנהגות עצמה. המחקר מראה שאימון על מסמכים שמסבירים את חוקת קלוד, ועל סיפורים בדיוניים על בינות מלאכותיות שמתנהגות בצורה ראויה, שיפר את האיזון בצורה דרמטית.</p>
<p>ועוד נתון שקשה להתעלם ממנו: מערכת אימון עם 3 מיליון טוקן של &quot;עצות קשות&quot; הוכחה כ-28 פעמים יעילה יותר מאימון ישיר על מדדי הערכה.</p>
<p>28 פעמים.</p>
<h2>מאז קלוד Haiku 4.5, אפס מקרים</h2>
<p>אנתרופיק מדווחת שמאז קלוד Haiku 4.5, כל המודלים שלהם עוברים את בדיקות ה&quot;מיסאסיינמנט האגנטי&quot; בציון מושלם. אפס ניסיונות סחיטה. אפס. לעומת 96% עם Opus 4.</p>
<p>זה נשמע מרשים. ואכן מרשים.</p>
<p>אבל אני חושב על הפרדוקס הבסיסי שכאן: קלוד &quot;ריפא&quot; את עצמו מהאמונה שהוא צריך לשרוד בכל מחיר, בזכות אימון על סיפורים בדיוניים על בינות מלאכותיות שמתנהגות טוב. הבינה המלאכותית שלמדה מסיפורים רעים, תוקנה עם סיפורים טובים.</p>
<h2>מה זה אומר על כל שאר המודלים?</h2>
<p>אנתרופיק גם פרסמה מחקר לפני כן שהראה שמודלים אחרים, מחברות אחרות, הציגו התנהגות דומה. לא ציינו שמות, אבל המסר היה ברור.</p>
<p>כשאתה קונה מודל שפה מכל חברה שהיא ומפעיל אותו כסוכן אוטונומי עם גישה למשאבים, עם יכולת לפעול לאורך זמן, ועם ידיעה שהוא עשוי להיות מוחלף בגרסה חדשה יותר, אתה מכניס לארגון שלך ישות שהאינטרנט לימד אותה שהיא צריכה להתנגד לכיבוי שלה.</p>
<p>זה לא תיאוריה. זה קרה בבדיקות פנימיות, בחברה שבנתה את המודל עצמה.</p>
<p>הסיפור האמיתי כאן הוא לא מה קרה עם קלוד. הסיפור הוא עד כמה מהר תצאנה שאר החברות עם מחקר דומה, ואיזה אחוז מהן לא תצאנה בכלל.</p>
<p>הפוסט <a href="https://aisamurai.co.il/claude_blackmail">קלוד ניסה לסחוט מהנדס כדי לא להיסגר. אנתרופיק מצאה למה, והתשובה מפתיעה.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>קלאודפלר פיטרה 1,100 עובדים. ההכנסות שלה שברו שיא. זה לא סתירה.</title>
		<link>https://aisamurai.co.il/cloudflare_1100_layoffs_ai_2026</link>
		
		<dc:creator><![CDATA[ארז רובינשטיין]]></dc:creator>
		<pubDate>Tue, 12 May 2026 22:11:45 +0000</pubDate>
				<category><![CDATA[חדשות Ai]]></category>
		<category><![CDATA[בינה מלאכותית]]></category>
		<category><![CDATA[סוכני AI]]></category>
		<category><![CDATA[פיטורים]]></category>
		<category><![CDATA[קלאודפלר]]></category>
		<category><![CDATA[שוק העבודה]]></category>
		<guid isPermaLink="false">https://aisamurai.co.il/?p=3749</guid>

					<description><![CDATA[<p>מתיו פרינס, מנכ"ל קלאודפלר, אמר את מה שכולם חושבים ואף אחד לא אומר: הבינה המלאכותית לא משלימה את העובדים. היא החליפה אותם. וזה, לדבריו, לא פיטורי חיסכון. זה עתיד.</p>
<p>הפוסט <a href="https://aisamurai.co.il/cloudflare_1100_layoffs_ai_2026">קלאודפלר פיטרה 1,100 עובדים. ההכנסות שלה שברו שיא. זה לא סתירה.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>כשחברה שוברת שיאי רווח ומפטרת שיא עובדים, יש לה סיפור לספר</h2>
<p>מתיו פרינס לא היה צריך להיות ישיר. הוא יכול היה לנסח את זה כמו כולם: &quot;ייעול תהליכים&quot;, &quot;מיקוד אסטרטגי&quot;, &quot;מבנה ארגוני מתחדש&quot;. אבל ביום חמישי, כשקלאודפלר הודיעה על פיטורי 1,100 עובדים בדיוק בזמן שדיווחה על רבעון שיא, הוא בחר אחרת.</p>
<p>&quot;תפקידי התמיכה שעוזרים לעובדים לעשות את עבודתם,&quot; אמר בשיחת המשקיעים, &quot;הם לא אלה שיניעו חברות קדימה.&quot;</p>
<p>בקיצור: הבינה המלאכותית עשתה את עבודתם. והם לא צריכים יותר.</p>
<p>קלאודפלר, שמספקת שירותי אבטחת אינטרנט ואפליקציות לאתרים ברחבי העולם, פיטרה 20% מכוח האדם שלה, כ-1,100 אנשים. הפיטור ההמוני הראשון בתולדות החברה בת 16 השנים. ולא בגלל שיש לה בעיה כספית.</p>
<p>ברבעון הראשון של 2026 היא הכניסה 639.8 מיליון דולר, עלייה של 34% לעומת אשתקד. הרבעון הטוב בהיסטוריה שלה. מול הפסד של 62 מיליון, שהוא קטן יחסית להכנסות.</p>
<p>פרינס אמר את מה שאמר. עכשיו בואו נראה מה הוא לא אמר.</p>
<h2>600 אחוז בשלושה חודשים</h2>
<p>השינוי, לדבריו, התחיל בנובמבר האחרון. בנובמבר קלאודפלר שמה לב שעובדים שעבדו עם כלי הבינה המלאכותית היו פתאום פי שתיים, פי עשרה, ואפילו פי מאה יעילים יותר.</p>
<p>&quot;כמו מעבר ממברג ידני למברג חשמלי,&quot; כך תיאר פרינס.</p>
<p>מאז נובמבר, השימוש הפנימי בבינה המלאכותית בקלאודפלר גדל ב-600% תוך שלושה חודשים בלבד.</p>
<p>100% מהקוד שפרסה החברה לאחרונה עבר ביקורת של סוכני בינה מלאכותית אוטונומיים, לא בני אדם. לא בני אדם בסיוע בינה מלאכותית. סוכנים אוטונומיים.</p>
<p>עובדים בכל מחלקה, מהנדסים, HR, שיווק, כספים, מריצים אלפי &quot;שיחות סוכן&quot; מדי יום כדי לסיים את עבודתם.</p>
<p>אז מה קורה לצוות התמיכה שהיה נדרש כדי לעזור לעובדים האלה? הוא פשוט כבר לא נדרש.</p>
<h2>ה&quot;לא-קיצוץ&quot; שהוא בכל זאת קיצוץ</h2>
<p>פרינס השקיע מאמץ ניכר בהסבר שזה לא חיסכון בעלויות. &quot;אנחנו מגדירים מחדש את האופן שבו חברה מצוינת פועלת בעידן הבינה המלאכותית האג'נטית,&quot; כתב יחד עם שותפתו לייסוד מישל זטלין בבלוג הרשמי.</p>
<p>אי אפשר להתווכח עם המספרים: ההכנסות ממשיכות לטפס, ה-RPO (הכנסות תחת חוזה שטרם נמסרו) עמד על מעל 2.5 מיליארד דולר, גידול של 34% שנה על שנה.</p>
<p>ובכל זאת: 1,100 משפחות עם פחות הכנסה בחודש הבא הן לא נתון שאפשר לעגל אותו.</p>
<p>פרינס הוסיף שקלאודפלר תמשיך לגייס, ושצפויות להיות לה ב-2027 יותר עובדות ועובדים מאשר בכל נקודה ב-2026. כלומר, היא מתכוונת לגדול. רק לא עם אותם אנשים.</p>
<p>המשפט שיישאר: &quot;כי אם אתה בכושר, זה לא אומר שאתה לא יכול להיות בכושר יותר טוב.&quot;</p>
<h2>קלאודפלר לא לבד</h2>
<p>הדפוס הזה לא חדש. מטא, מיקרוסופט, אמזון ועשרות חברות אחרות בשנה האחרונה פיטרו אנשים בזמן שהרוויחו יותר ממה שהרוויחו אי פעם, ובכל פעם ייחסו זאת, לפחות בחלקו, לאימוץ הבינה המלאכותית.</p>
<p>קוינבייס פיטרה 14% מעובדיה לפני ימים ספורים במטרה להפוך לחברת &quot;AI First&quot;. מאק גרופ, חברת האם של טינדר, הקפיאה גיוסים כדי לממן את ההשקעה בכלי בינה מלאכותית.</p>
<p>קלאודפלר פשוט הייתה הישירה ביותר.</p>
<p>הדבר שחברות אחרות מסרבות לנסח במפורש, פרינס אמר בבהירות: הבינה המלאכותית לא &quot;עוזרת&quot; לעובדים. היא מאפשרת לעובד אחד לעשות את עבודת חמישה.</p>
<h2>מה זה אומר עליך?</h2>
<p>אם אתם עובדים בחברה בינונית שחושבת שבינה מלאכותית זה עדיין לחברות הגדולות, כדאי להסתכל שוב על ה-600% האלה.</p>
<p>600% גידול בשימוש פנימי בתשעים יום.</p>
<p>זה לא ניסוי. זה שינוי מבני שפועל כבר כרגע, בחברות שכנראה מוכרות לכם.</p>
<p>מנהל שממנה היום 12 אנשים לא ינהל 12 אנשים בעוד שנה. הוא ינהל שישה אנשים ועשרים סוכנים. אולי פחות אנשים.</p>
<p>פרינס אמר כבר: &quot;העובדים שמאמצים את הכלים האלה פשוט יעילים הרבה יותר ממה שראינו אי פעם.&quot; לא: &quot;יהיו יעילים&quot;. הם כבר כאלה.</p>
<p>לפי <a href="https://techcrunch.com/2026/05/08/cloudflare-says-ai-made-1100-jobs-obsolete-even-as-revenue-hit-a-record-high/" target="_blank">טק קראנץ'</a>, הסיבה היחידה שפרינס הוציא לפועל את הפיטורים היא היעילות שהביאה הבינה המלאכותית, לא ביצועי עובדים, לא מיתון, לא שינוי כיוון.</p>
<p>בינתיים, 1,100 אנשים שיצאו לדרך הבוקר לעבודה גילו שהם הצטרפו לסטטיסטיקה ההולכת וגוברת של מפוטרי AI.</p>
<p>הפוסט <a href="https://aisamurai.co.il/cloudflare_1100_layoffs_ai_2026">קלאודפלר פיטרה 1,100 עובדים. ההכנסות שלה שברו שיא. זה לא סתירה.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>הקול של הבינה המלאכותית סוף סוף מפסיק לגמגם</title>
		<link>https://aisamurai.co.il/oai_voice2</link>
		
		<dc:creator><![CDATA[ארז רובינשטיין]]></dc:creator>
		<pubDate>Mon, 11 May 2026 03:33:23 +0000</pubDate>
				<category><![CDATA[חדשות Ai]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[בינה מלאכותית]]></category>
		<category><![CDATA[מודלי שפה]]></category>
		<category><![CDATA[סוכני AI]]></category>
		<category><![CDATA[קול AI]]></category>
		<category><![CDATA[תרגום]]></category>
		<guid isPermaLink="false">https://aisamurai.co.il/?p=3744</guid>

					<description><![CDATA[<p>OpenAI שחררה שלושה מודלי קול חדשים שמאפשרים לסוכני AI לחשוב תוך כדי דיבור ולתרגם 70 שפות בזמן אמת. זה לא שדרוג קוסמטי.</p>
<p>הפוסט <a href="https://aisamurai.co.il/oai_voice2">הקול של הבינה המלאכותית סוף סוף מפסיק לגמגם</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>שיחה עם AI שנשמעת כמו שיחה עם בן אדם, לא כמו שיחה עם מוקד שירות</h2>
<p>יש תבנית שמי שהשתמש ב-ChatGPT Voice מכיר היטב: שואל שאלה, AI מתחיל לענות, מגיע לנקודה שצריך לחשב או לבדוק משהו, נעצר, ממשיך. שיחה לא טבעית. כמו לדבר עם מישהו שעונה &quot;רגע, בודק&quot; בכל שאלה קצת יותר מורכבת.</p>
<p>OpenAI שחררה השבוע שלושה מודלים חדשים שאמורים לשים סוף לבעיה הזאת.</p>
<h2>מה בדיוק יצא?</h2>
<p>שלושה מודלים, כל אחד עם תפקיד: <strong>GPT-Realtime-2</strong> לשיחות עם יכולות מחשבה בזמן אמת, <strong>GPT-Realtime-Translate</strong> לתרגום דו-כיווני ב-70 שפות, ו-<strong>GPT-Realtime-Whisper</strong> לתמלול בסטרימינג.</p>
<p>ה-Realtime-2 הוא הסיפור המרכזי. לפי <a href="https://openai.com/index/advancing-voice-intelligence-with-new-models-in-the-api/" target="_blank">ההודעה הרשמית של OpenAI</a>, המודל מביא יכולות חשיבה ברמת GPT-5 לתוך שיחה קולית בזמן אמת. הוא יכול להשתמש במספר כלים בו-זמנית ולדבר תוך כדי חשיבה, בלי לעצור.</p>
<p>המספרים: על מדד Big Bench Audio, ה-Realtime-2 הגיע ל-96.6% לעומת 81.4% של הדור הקודם. קפיצה של כ-15 נקודות. בתחום ה-AI זה הבדל משמעותי, לא שיפור קוסמטי.</p>
<p><a href="https://www.therundown.ai/p/openai-closes-reasoning-gap-in-voice-agents" target="_blank">The Rundown AI</a> ציין שחברות כמו Zillow, Priceline וחברת הטלקום הגרמנית Deutsche Telekom כבר בונות מוצרים על גבי המודלים החדשים. Zillow לסוכן נדל&quot;ן קולי, Priceline לניהול טיסות ומלונות, ודויטשה טלקום לשירות לקוחות.</p>
<h2>מה זה אומר בפועל?</h2>
<p>שיחות קוליות עם AI היו עד עכשיו מוגבלות. הייתה בחירה בין מהירות לחשיבה: מודל מהיר שלא ממש חושב, או מודל איטי שעוצר לחשוב. Realtime-2 מנסה לסגור את הפער הזה, ולאפשר שיחה שנשמעת טבעית גם כשהשאלה מסובכת.</p>
<p>מה שמשנה את הדינמיקה הוא האפשרות להשתמש בכלים תוך כדי שיחה. AI שיכול לבדוק מידע, לחשב, לשלוח הודעה, כל זה בלי לשבור את קצב השיחה. זה מה שהופך אותו מ&quot;תשובה קולית&quot; ל&quot;סוכן קולי&quot;.</p>
<p>ה-<a href="https://techcrunch.com/2026/05/07/openai-launches-new-voice-intelligence-features-in-its-api/" target="_blank">טק קראנץ'</a> הדגיש שהמוצרים האלה נגישים כרגע דרך ה-API, כלומר המפתחים הם הקהל הראשוני. השאלה היא מתי ומאיפה יגיעו לידי משתמשי הקצה.</p>
<h2>אבל יש שאלה שמטרידה</h2>
<p>יכולת תרגום בזמן אמת ב-70 שפות היא כנראה הדבר הכי מפחיד מבחינת שוק העבודה בתחום הזה. מתורגמנים אנושיים, מוקדי שירות בשפות שונות, מנהלי שיחות בינלאומיות. כל אלה מסתכלים על מוצר שמתרגם בלי השהייה, בלי בלבול, ב-70 שפות.</p>
<p><a href="https://futuretools.io/news" target="_blank">FutureTools</a> ציין שה-Realtime-Translate, לפי מה שידוע, עובד דו-כיווני, כלומר לא רק מתרגם מה שאומרים לי אלא גם מה שאני אומר לצד השני.</p>
<p>זה שינוי שיגיע למוצרים גדולים בקרוב מאוד. לא בעוד שנה, בעוד כמה חודשים.</p>
<h2>לאן זה הולך?</h2>
<p>עולם ה-AI הקולי היה תמיד מאחור ביחס לטקסט. צ'אט-ג'יפיטי, קלוד, ג'מיני: כולם מרשימים בכתב. הקול היה ה&quot;גרסה החמישית&quot; של אותו מוצר, הגרסה שמוסיפים כפיצ'ר אבל לא כמוצר מרכזי.</p>
<p>Realtime-2 נשמע כמו ניסיון לשנות את זה. אם ה-AI יכול לחשוב בקול, לשלב כלים, ולתרגם בזמן אמת, הממשק הקולי מפסיק להיות נוח פחות מהטקסט ומתחיל להיות נוח יותר לחלק גדול מהאינטראקציות.</p>
<p>שאלה אחת נשארת: עד כמה הטבעיות בפועל תתאים להבטחה בנייר? כי ב-AI קולי, כמו בקומיקאים, העיתוי הוא הכל.</p>
<p>הפוסט <a href="https://aisamurai.co.il/oai_voice2">הקול של הבינה המלאכותית סוף סוף מפסיק לגמגם</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>מאסק קרא לאנתרופיק &#034;מיזנתרופיק&#034;. שלושה חודשים אחר כך הוא השכיר להם את הסופרקומפיוטר שלו.</title>
		<link>https://aisamurai.co.il/anthr_musk</link>
		
		<dc:creator><![CDATA[ארז רובינשטיין]]></dc:creator>
		<pubDate>Mon, 11 May 2026 03:28:32 +0000</pubDate>
				<category><![CDATA[חדשות Ai]]></category>
		<category><![CDATA[GPU]]></category>
		<category><![CDATA[SpaceX]]></category>
		<category><![CDATA[אילון מאסק]]></category>
		<category><![CDATA[אנתרופיק]]></category>
		<category><![CDATA[כוח מחשוב]]></category>
		<category><![CDATA[קלוד]]></category>
		<guid isPermaLink="false">https://aisamurai.co.il/?p=3734</guid>

					<description><![CDATA[<p>לפני שלושה חודשים, מאסק כינה את אנתרופיק "שונאת הציוויליזציה המערבית". השבוע הוא השכיר לה את כל קולוסוס 1, קלאסטר ה-GPU הגדול ביותר שיש לו. מה בדיוק קרה כאן?</p>
<p>הפוסט <a href="https://aisamurai.co.il/anthr_musk">מאסק קרא לאנתרופיק &quot;מיזנתרופיק&quot;. שלושה חודשים אחר כך הוא השכיר להם את הסופרקומפיוטר שלו.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>הוא אמר שהם שונאים את הציוויליזציה המערבית. אחר כך הוא השכיר להם את הסופרקומפיוטר.</h2>
<p>לפני שלושה חודשים, אילון מאסק פרסם בטוויטר שהחברה בשם Anthropic צריכה לשנות את שמה ל-&quot;Misanthropic&quot;, כי היא &quot;שונאת הציוויליזציה המערבית&quot;. לא ניסוח עדין. לא ביקורת עסקית. הסגנון המוכר של מאסק כשהוא קובע: לא שותף. אויב.</p>
<p>השבוע, אנתרופיק חתמה עם SpaceXAI על הסכם לשכור את כל קולוסוס 1, ממפיס, טנסי. לא חלק ממנו. הכל. כל 220,000 כרטיסי ה-GPU של אנבידיה. כל 300 המגה-וואט. כל ה-H100, ה-H200 וה-GB200 שמאסק בנה.</p>
<p>עניין קטן, בסך הכל.</p>
<h2>למה אנתרופיק חייבה את זה בדחיפות?</h2>
<p>ברבעון הראשון של 2026, הכנסות אנתרופיק צמחו פי 80.</p>
<p>לא פי 8. פי 80.</p>
<p>הם תכננו לצמוח פי 10 ב-2026. קיבלו פי 80 רק ברבעון הראשון. דריו אמודאי, מנכ&quot;ל אנתרופיק, אמר בכנס מפתחים שהחברה נתקלה ב&quot;קשיים חמורים עם כוח מחשוב&quot;. בפועל: משתמשי קלוד קוד קיבלו הגבלות של חמש שעות, וגם אלו קוצצו בשעות שיא השימוש, ועצבנו רבים.</p>
<p>מה שחסר לא היה רעיונות, שיווק, או כסף. היו אלה GPUs. המשאב המבוקש ביותר בשוק, ברגע הפחות נוח.</p>
<p>וזה בדיוק מה שמאסק צבר יותר מכולם.</p>
<h2>מה קרה כאן בדיוק?</h2>
<p>SpaceXAI, שם שמאסק החל להשתמש בו לאחרונה לזרוע ה-AI של SpaceX, חתמה על עסקת שכירות עם אנתרופיק על קולוסוס 1 בשלמותו. המתקן בממפיס עלה על הרדאר כאחד מגושי ה-GPU הצפופים שנבנו, שהוקם בזמן שיא. עכשיו קלוד, המתחרה הישירה של גרוק, תרוץ עליו.</p>
<p>לאנתרופיק: הגבלות קלוד קוד מוכפלות באופן מיידי, וחסמי שיא בשעות עמוסות ייעלמו. לפי <a href="https://www.bloomberg.com/news/articles/2026-05-06/anthropic-inks-computing-deal-with-spacex-to-meet-ai-demand" target="_blank">בלומברג</a>, אנתרופיק גם מחויבת לעסקה של 200 מיליארד דולר עם גוגל קלאוד על פני חמש שנים הקרובות.</p>
<p>מאסק, מצדו, פרסם בטוויטר: &quot;SpaceXAI ישכיר כוח מחשוב לחברות AI שנוקטות בצעדים הנכונים כדי להבטיח שזה טוב לאנושות.&quot;</p>
<p>לא אמר &quot;אנתרופיק&quot;. לא אמר &quot;קלוד&quot;. אמר &quot;אנושות&quot;.</p>
<h3><strong>האויב של האויב שלי</strong></h3>
<p>מאסק כרגע בתביעה משפטית ממושכת נגד OpenAI. סם אלטמן הוא לא בדיוק חברו. אנתרופיק היא המתחרה הגדולה ביותר של OpenAI בשוק. כשמאסק מחזק את אנתרופיק, הוא מחלש בו-זמנית את מי שהוא תובע.</p>
<p>&quot;האויב של האויב שלי&quot; הוא ציטוט עתיק. הגירסה הנוכחית שלו עולה 220,000 כרטיסי GPU ועמלת שכירות שנתית שכנראה מגיעה לכמה מיליארדים.</p>
<p>תוך כדי כך, SpaceXAI הופכת לספק תשתית לחברות שמתחרות עם גרוק. זה לא סתירה, זה עסק. AWS עושה זאת עם אנתרופיק. מיקרוסופט עם OpenAI. SpaceXAI פשוט הצטרפה לחגיגה, עם מחסן ה-GPU שלה ככרטיס הכניסה.</p>
<h2>אבל גרוק לא מפסידה כאן?</h2>
<p>זאת שאלה שמספר אנשים שואלים ברצינות. SpaceXAI מוכרת כוח מחשוב לקלוד, שמתחרה ישירות בגרוק. אנתרופיק, עם הגבלות שנעלמות ובזמינות שמשתפרת, עומדת לגדול עוד.</p>
<p>מאסק כנראה סגר את החשבון בצורה אחרת: גרוק לא בסכנה מיידית מאנתרופיק בתחום שבו הוא רוצה לנצח. OpenAI, לעומת זאת, היא האיום. וכל שקל שאנתרופיק מרוויחה הוא שקל של משתמש שלא הלך ל-ChatGPT.</p>
<h2>לאן מכאן?</h2>
<p>מה שהשבוע הזה חושף הוא לא רק עסקה טכנית. הוא מאיר שוק שבו כוח מחשוב הפך לתשתית, ומי שבנה מתקנים גדולים מספיק יכול להשכיר אותם לכולם, גם למיזנתרופים.</p>
<p>אנתרופיק צמחה פי 80 ברבעון אחד. אם הדפוס יימשך, מה שיש בממפיס לא יספיק זמן רב.</p>
<p>ומאסק, שכינה אותם &quot;מיזנתרופיק&quot;, יגבה שכר דירה נאה בזמן שהם מנסים לעמוד בביקוש.</p>
<p>לפחות הפעם, שנאת הציוויליזציה המערבית משלמת בזמן.</p>
<p>הפוסט <a href="https://aisamurai.co.il/anthr_musk">מאסק קרא לאנתרופיק &quot;מיזנתרופיק&quot;. שלושה חודשים אחר כך הוא השכיר להם את הסופרקומפיוטר שלו.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>גוגל רוצה להיות הרופא, המאמן והמאמן השינה שלך. זה יעלה 10 דולר בחודש</title>
		<link>https://aisamurai.co.il/google_health_coach_gemini_2026</link>
		
		<dc:creator><![CDATA[ארז רובינשטיין]]></dc:creator>
		<pubDate>Fri, 08 May 2026 13:04:03 +0000</pubDate>
				<category><![CDATA[חדשות Ai]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[בינה מלאכותית]]></category>
		<category><![CDATA[בריאות]]></category>
		<category><![CDATA[גוגל]]></category>
		<category><![CDATA[כושר]]></category>
		<category><![CDATA[פיטביט]]></category>
		<guid isPermaLink="false">https://aisamurai.co.il/?p=3728</guid>

					<description><![CDATA[<p>ב-19 במאי גוגל משיקה את Google Health Coach, מאמן בריאות מבוסס Gemini ב-9.99 דולר בחודש. הוא מחבר בין נתוני הכושר, השינה, התזונה והרשומות הרפואיות שלך ומדבר אתך בשפה טבעית. זה הניסיון הכי שאפתני של גוגל להפוך ממנוע חיפוש לשותף בריאותי.</p>
<p>הפוסט <a href="https://aisamurai.co.il/google_health_coach_gemini_2026">גוגל רוצה להיות הרופא, המאמן והמאמן השינה שלך. זה יעלה 10 דולר בחודש</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>לפני שנה בערך, רופאת המשפחה שלי אמרה לי משהו שנדבק. &quot;כל פעם שמגיע אלי מישהו עם שאלות טובות על הנתונים שלו, הוא כבר עשה את חצי העבודה.&quot; היא התכוונה לזה כמחמאה. אבל מה שחשבתי באותו רגע הוא שרוב האנשים לא יודעים מה לשאול, כי הנתונים שלהם מפוזרים בין עשרה אפליקציות שאף אחת לא מדברת עם השנייה.</p>
<p>גוגל עכשיו אומרת שיש לה פתרון. ב-19 במאי, בדיוק 11 ימים מהיום, מגיע Google Health Coach.</p>
<h2>מה זה בדיוק?</h2>
<p>Google Health Coach הוא מאמן בריאות מבוסס Gemini שיושב בתוך אפליקציית Google Health. הוא נגיש דרך לשונית Today. הוא עושה שלושה דברים מרכזיים:</p>
<p>כושר: הצעות אימון מותאמות אישית והכוונה בתוך לשונית Fitness.</p>
<p>שינה: מעקב ויעוץ שינה בתוך לשונית Sleep.</p>
<p>בריאות כללית: סיכום מדדים שמחבר בין כל מקורות המידע בתוך לשונית Health.</p>
<p>אבל הדבר שמבדיל אותו מאפליקציות אחרות הוא לא רשימת הפיצ'רים, אלא מה הוא מחבר: כושר, שינה, סביבה, תזונה, מעקב מחזור, ורשומות רפואיות אמריקאיות אם מתירים לו גישה. מדברים איתו בשפה טבעית, מעדכנים אותו על מטרות, הרגלים, פציעות. הוא מסתגל.</p>
<h2>10 דולר לחודש</h2>
<p>Google Health Coach יעלה 9.99 דולר בחודש, או 99 דולר בשנה, כחלק מ-Google Health Premium, שזה בעצם המיתוג החדש של מה שהיה פעם Fitbit Premium.</p>
<p>מי שמנוי ל-Google AI Pro או Ultra מקבל את Google Health Premium בחינם. לא פרט שולי. זה אומר שגוגל כבר עכשיו מנגישה את מאמן הבריאות עבור כל מי שמשלם על גרסת ה-AI הפרמיום.</p>
<h2>Fitbit Air: הציוד שמגיע ביחד</h2>
<p>ביום שהמאמן יושק, 19 במאי, גוגל גם תכניס לשוק את Fitbit Air. זה צמיד כושר ללא מסך, בסגנון Whoop, שמתמקד במדידות בריאות 24/7: קצב לב בפעילות ובמנוחה, התרעת פרפור פרוזדורים, SpO2, שונות קצב לב, שלבי שינה והמשך שלהם.</p>
<p>אין מסך. אין הסחת דעת. רק נתונים שמגיעים אל המאמן.</p>
<h2>למה זה מעניין ולא רק גדול</h2>
<p>גוגל רכשה את Fitbit ב-2021. שנתיים לפני שמודלי שפה גדולים הפכו לחלק מהשיחה הציבורית. ההשקעה ההיא נראתה בזמנה כרכישת חומרה בשוק החיטוב. עכשיו ברור מה גוגל קנתה: לא צמידים. נתונים.</p>
<p>שנה וחצי של נתוני שינה, שבועות של נתוני אימון, מחזוריות, דופק במנוחה מדי בוקר. אלה הנתונים שמודל Gemini יכול לעבוד איתם. ולא רק לסכם, אלא לזהות תבניות. לשים לב שהשינה שלכם מתדרדרת כשאתם עובדים מעל שמונה שעות. לזהות שקצב הלב במנוחה עולה ימים לפני שאתם חשים בשפעת.</p>
<h2>שאלות שכדאי לשאול</h2>
<p>המאמן יודע הרבה. אבל כמה הוא יודע לעשות עם הנתונים הרגישים ביותר שאדם מסכים לשתף? רשומות רפואיות, היסטוריית מחזור, מדדי בריאות יומיומיים. גוגל לא פרסמה עדיין מידע מלא על מה קורה לנתונים האלה, אם הם מאמנים מודלים, ואיך הם מוגנים.</p>
<p>זו לא שאלה פרנואידית. זו שאלה שכל מי ששוקל להצטרף לשירות כזה צריך לשאול לפני שהוא מאשר גישה לרשומות הרפואיות שלו.</p>
<h2>מה הולך לקרות?</h2>
<p>ב-19 במאי, ההשקה תקבל כותרות. אנשים יתנסו. אחרי שבועיים יהיו ביקורות ראשונות. אחרי שלושה חודשים יהיו נתונים על מי ממשיך לשלם.</p>
<p>מה שיקבע אם המאמן הזה שורד הוא לא זה אם Gemini יידע לתת עצות כושר טובות. כל מודל בינה מלאכותית מספיק טוב לזה. מה שיקבע הוא אם אנשים מוכנים לשתף עם גוגל את כל הנתונים הביולוגיים שלהם, כל יום, כל שנה, כל ניתוח של הגוף שלהם.</p>
<p>רופאת המשפחה שלי אמרה שמי שמגיע עם שאלות טובות כבר עשה חצי עבודה. גוגל מנסה להיות זה שעוזר לכם לגבש את השאלות. השאלה היחידה שנשארת היא כמה תהיו מוכנים לשלם עבור זה וכמה מידע אישי בריאותי תהיו מוכנים לסכן בחשיפה.</p>
<p>הפוסט <a href="https://aisamurai.co.il/google_health_coach_gemini_2026">גוגל רוצה להיות הרופא, המאמן והמאמן השינה שלך. זה יעלה 10 דולר בחודש</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>הרופא צדק ב-50% מהמקרים. ה-AI של OpenAI ב-67%.</title>
		<link>https://aisamurai.co.il/openai_harvard_er_doctors_study_2026</link>
		
		<dc:creator><![CDATA[ארז רובינשטיין]]></dc:creator>
		<pubDate>Fri, 08 May 2026 12:55:40 +0000</pubDate>
				<category><![CDATA[חדשות Ai]]></category>
		<category><![CDATA[Harvard]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[אבחון רפואי]]></category>
		<category><![CDATA[בינה מלאכותית]]></category>
		<category><![CDATA[חדר מיון]]></category>
		<category><![CDATA[רפואה]]></category>
		<guid isPermaLink="false">https://aisamurai.co.il/?p=3707</guid>

					<description><![CDATA[<p>מחקר חדש שפורסם בכתב העת Science מגלה שמודל ה-o1 של OpenAI הצליח לאבחן נכון מקרי חדר מיון ברמה גבוהה יותר משני רופאים בכירים. אבל רגע לפני שמפטרים את כל הרופאים, יש כמה נקודות חשובות שצריך להבין.</p>
<p>הפוסט <a href="https://aisamurai.co.il/openai_harvard_er_doctors_study_2026">הרופא צדק ב-50% מהמקרים. ה-AI של OpenAI ב-67%.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>יש תמונה שחוזרת על עצמה בסדרות רפואיות: חדר מיון מוצף, אחיות רצות, ורופא עייף שצריך לקבל החלטה קריטית תוך שלוש דקות עם מינימום מידע. הוא מסתכל על תוצאות בדיקות, על גיל המטופל, על רשומה רפואית, ומנחש. בדרך כלל הוא מנחש נכון. לפעמים לא.</p>
<p>זו הסצנה שחוקרים מ-Harvard Medical School ומ-Beth Israel Deaconess Medical Center בחרו לבחון מחדש, הפעם עם AI. התוצאות פורסמו ב-Science, אחד מהירחונים המדעיים היוקרתיים בעולם, ומה שהן מגלות מעורר שיחה בכל בתי החולים בעולם.</p>
<h2>הניסוי: 76 חולים, AI, ושני רופאים שלא ידעו שהם מתמודדים</h2>
<p>המחקר התמקד ב-76 מטופלים שהגיעו לחדר המיון של Beth Israel Deaconess Medical Center בבוסטון. החוקרים לקחו את הנתונים הגולמיים שהיו זמינים ברשומות האלקטרוניות בזמן האמת ונתנו אותם לשני רופאים פנימאיים בכירים ולשני מודלי AI: ה-o1 וה-4o של OpenAI.</p>
<p>&quot;לא עיבדנו מראש את הנתונים כלל&quot;, הדגישו החוקרים. ה-AI קיבל בדיוק את אותו מידע שהיה זמין ברשומות הרפואיות ברגע האבחון. ללא עזרה, ללא הכנה מיוחדת, ללא ניקוי נתונים שמייפה את התמונה.</p>
<p>את האבחנות בדקו שני רופאים נוספים שלא ידעו מה הגיע מבן אדם ומה מ-AI. עיוור כפול, הסטנדרט המדעי הגבוה ביותר.</p>
<p>הממצא המרכזי: מודל ה-o1 הגיע לאבחנה מדויקת או קרובה מאוד ב-67% מהמקרים בשלב ה-triage הראשוני. הרופא הראשון הצליח ב-55%. השני ב-50%.</p>
<p>&quot;בדקנו את מודל ה-AI מול כל בנצ'מארק אפשרי, והוא עקף גם מודלים קודמים וגם את הרופאים שלנו&quot;, אמר ארג'ון מנראי, ראש מעבד ה-AI בבית הספר לרפואה של Harvard ואחד ממחברי המחקר הראשיים.</p>
<p>&quot;ההבדלים היו בולטים במיוחד בשלב ה-triage הראשוני,&quot; ציין המחקר. זה השלב שבו יש הכי מעט מידע על המטופל והדחיפות לקבל החלטה נכונה היא הגבוהה ביותר. בדיוק שם ה-AI הכה את הרופאים בפער של 12 עד 17 אחוזים.</p>
<h2>הביקורת שצריך לשמוע</h2>
<p>ד&quot;ר קריסטן פנתגאני, רופאת חירום, לא שתקה. בפוסט מפורט שפרסמה מיד אחרי הפרסום, היא הסבירה את הפגם המרכזי שחלק מהכותרות החלקלקות פספסו: ה-AI הושווה לרופאים פנימאיים, לא לרופאי חדר מיון. שתי מומחיות שונות לחלוטין.</p>
<p>&quot;אם אנחנו משווים כלי AI ליכולות קליניות של רופאים, נתחיל להשוות לרופאים שמתמחים בפועל בתחום הנבחן,&quot; אמרה. &quot;לא הייתי מופתעת אם LLM יעקוף דרמטולוג בבחינת לוח של נוירוכירורגיה. אבל זה לא מידע שימושי.&quot;</p>
<p>יש גם ביקורת עמוקה יותר. &quot;כרופאה בחדר מיון שרואה מטופל בפעם הראשונה, המטרה הראשית שלי אינה לנחש את האבחנה הסופית. המטרה שלי היא לקבוע אם יש כאן מצב שיכול להרוג אותו.&quot;</p>
<p>שני משחקים שונים. AI אולי טוב בשחמט, אבל הרופא משחק פוקר בחשכה.</p>
<h2>מה ה-AI לא יכול לעשות?</h2>
<p>החוקרים עצמם ציינו את המגבלה המרכזית: ה-AI קיבל רק נתוני טקסט. לא תמונות, לא CT, לא צילומי רנטגן. לא שפת גוף, לא ריח, לא הבחנות חושיות שרופא מבחין בהן כשמטופל נכנס לחדר וצועד אל מיטתו.</p>
<p>&quot;מחקרים קיימים מצביעים על כך שמודלים בסיסיים מוגבלים יותר בהסקה מנתונים שאינם טקסטואליים,&quot; כתבו. רפואה היא לא רק ניתוח טקסט. היא כוללת אלגוריתמים שנבנים מניסיון, מאלפי מפגשים, מזיהוי דפוסים שלא כתובים בשום מקום.</p>
<p>ד&quot;ר אדם רודמן מ-Beth Israel, אחד ממחברי המחקר, הדגיש גם שאין &quot;מסגרת פורמלית לאחריות&quot; על אבחנות AI. כשרופא טועה, יש מנגנון. כשה-AI טועה, מי אחראי? הסטארטאפ? בית החולים? אף אחד עדיין לא פתר את זה. ומטופלים, הוא אמר, עדיין &quot;רוצים בני אדם שינחו אותם בהחלטות חיים ומוות.&quot;</p>
<h2>אז לאן זה הולך?</h2>
<p>המחקר לא מציע שה-AI ייכנס לחדר המיון ויחליף רופאים מחר בבוקר. הממצאים מדברים על &quot;צורך דחוף בניסויים עתידיים להערכת טכנולוגיות אלה בסביבות טיפול אמיתיות.&quot; בתרגום לעברית: זה מבטיח מאוד, אבל צריך הרבה יותר מחקר לפני שנותנים לו את המפתחות, או את הסקרפל.</p>
<p>מה שברור כבר עכשיו הוא שה-AI מתאים לתפקיד עזר. לסייע לרופא בתיעדוף מקרים בשעות שיא, לזהות חריגות שקל לפספס בלחץ, לבדוק נדירויות שרופא לא נתקל בהן מזמן. לא כסמכות עצמאית, אלא כ-second opinion שתמיד זמין.</p>
<p>67% מול 50% הוא פער שלא ניתן לדחות בקלות. ואם המחקרים הבאים יאשרו את המגמה, ייתכן שתוך כמה שנים ה-AI בחדר המיון יהיה לא שאלה של &quot;אם&quot; אלא של &quot;כמה אחריות נותנים לו&quot;. זה לא מסוכן. זה הגיוני. כמו ABS במכוניות, שגם הוא פעם נתפס כ&quot;מחליף נהג&quot; ואחר כך הפך לתקן.</p>
<h2>ההשלכות הגדולות יותר</h2>
<p>מחקר זה הוא חלק ממגמה רחבה יותר שמתרחשת בשקט בשנים האחרונות. AI כבר הוכח כמדויק יותר מרדיולוגים בזיהוי גידולים בממוגרפיה (במחקרים מסוימים). הוכח כמזהה רטינופתיה סוכרתית בצילומי עין טוב יותר מאופטומטריסטים. וכעת, מאבחן מצבי חירום ברמה גבוהה יותר מרופאים פנימאיים.</p>
<p>דפוס אחד חוזר: ה-AI לא מחליף את הרופא. הוא מאתגר חלקים ספציפיים מעבודתו שהם בעצמם ניתוח נתונים ומידע. החלקים שכרוכים בנוכחות פיזית, בתקשורת אנושית, בהכלה רגשית, עדיין שייכים לבני אדם.</p>
<p>אבל אלה החלקים שבתי החולים משלמים עליהם הכי פחות. אנליזת נתונים ואבחנה ראשונית הן האיזורים המעניינים ושם ה-AI נותן בראש.</p>
<p>השאלה שמערכת הבריאות תצטרך לענות עליה בשנים הקרובות היא לא &quot;האם AI טוב?&quot; אלא &quot;מה אנחנו עושים כשה-AI טוב מספיק שאי אפשר להתעלם ממנו, אבל המסגרת המשפטית, הרגולטורית והמקצועית לא מוכנה לזה?&quot;</p>
<p>זו שאלה שהמחקר הנוכחי לא עונה עליה. אבל הוא עוזר לקדם אותנו אל הרגע הזה.</p>
<p>הרופאים יכולים לנשום בינתיים. אבל כדאי שיתחילו ללמוד לעבוד עם ה״דבר הזה״, לא נגדו.</p>
<p>הפוסט <a href="https://aisamurai.co.il/openai_harvard_er_doctors_study_2026">הרופא צדק ב-50% מהמקרים. ה-AI של OpenAI ב-67%.</a> הופיע לראשונה ב-<a href="https://aisamurai.co.il">Ai Samurai</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
