רוצים להכשיר את העובדים שלכם? בואו נדבר
רוצים להטמיע AI בחברה שלכם? בואו נדבר
רוצים להטמיע AI בחברה שלכם? בואו נדבר
רוצים להישאר מעודכנים? הצטרפו לקבוצת הווצאפ שלנו
רוצים להכשיר את העובדים שלכם? בואו נדבר
רוצים להטמיע AI בחברה שלכם? בואו נדבר
רוצים להטמיע AI בחברה שלכם? בואו נדבר
רוצים להישאר מעודכנים? הצטרפו לקבוצת הווצאפ שלנו
רוצים להכשיר את העובדים שלכם? בואו נדבר
רוצים להטמיע AI בחברה שלכם? בואו נדבר
רוצים להטמיע AI בחברה שלכם? בואו נדבר
רוצים להישאר מעודכנים? הצטרפו לקבוצת הווצאפ שלנו
רוצים להכשיר את העובדים שלכם? בואו נדבר
רוצים להטמיע AI בחברה שלכם? בואו נדבר
רוצים להטמיע AI בחברה שלכם? בואו נדבר
רוצים להישאר מעודכנים? הצטרפו לקבוצת הווצאפ שלנו
רגע יומיומי: לעבור בין אפליקציות
אתם מדברים עם הצ'ט-בוט שלכם על מתכון לעוגה, אבל כדי לחשב את רשימת המצרכים המדויקת אתם קופצים לגיליון אקסל, ומשם לאתר אחר שמציע רעיונות לקישוטים. החוויה הזו – להסתמך על כמה כלים שונים שכל אחד יודע לעשות רק משימה אחת – מוכרת לכולנו.
אז מה זו בינה מלאכותית כללית (AGI)?
בינה מלאכותית כללית היא מערך תוכנה היפותטי שנועד להבין, ללמוד ולבצע כמעט כל משימה אינטלקטואלית שבני אדם מסוגלים לבצע, בלי להתמחות מראש בתחום צר אחד. במילים אחרות, מדובר במחשב שהיה יכול להיות גם שף מוכשר, גם רופא בקופת חולים וגם פקיד בנק – פשוט כי הוא מבין מושגים כלליים ומסוגל ליישם אותם במצבים חדשים. היום עדיין אין לנו AGI אמיתית; רוב הכלים הזמינים הם "מומחים" לנושא מסוים בלבד.
בינה צרה לעומת AGI – מי עושה מה?
בינה מלאכותית צרה, זו שמשרתת אותנו היום, מתוכננת לפתור בעיה אחת או קבוצה מצומצמת של בעיות: לזהות פנים בתמונות, להמליץ על סדרות ב-Netflix או להשלים לכם משפטים במייל. היא לומדת מהר ומגיעה לדיוק מרשים, אבל תוציאו אותה מתחום ההתמחות – והיא הולכת לאיבוד. מנוע תרגום מכיר מילים, אך אין לו מושג איך לתכנן טיול, ואלגוריתם שמזהה סרטן ברנטגן לא יוכל להסביר לכם בדיחה.
AGI אמורה לשבור את המחיצות האלה. היא תוכל להעביר ידע מתחום לתחום, להבין הקשרים רחבים, וללמוד משימה חדשה כמו אדם: להתנסות, לטעות, להשתפר ולחבר בין רעיונות שונים. המשמעות המעשית עבורנו היא כלי אחד גמיש שיחליף שלל אפליקציות ייעודיות, יפשט תהליכים מורכבים ויאפשר אוטומציה של עבודות שלא דמיינו שאפשר לאוטם. אך חשוב לזכור: נכון לעכשיו, ההבטחה גדולה מהמציאות – ורוב הפרויקטים עדיין בשלב מחקרי.
כמו ילד סקרן שלומד הכול
דמיינו ילד שמתחיל גן חדש: ביום הראשון הוא משקיף, קולט את הכללים, מחקה את החברים, מנסה בעצמו ומשפר את הביצועים מרגע לרגע. אותו ילד יוכל אחר כך ללמוד לנגן בגיטרה, לשחק כדורגל או לפתור חידות מתמטיות – כי הוא מפעיל את אותה יכולת למידה כללית בכל תחום חדש. AGI שואפת להיות בדיוק אותו ילד סקרן: מערכת אחת שמסוגלת לקלוט מידע, להבין דפוסים וליישם אותם בכל אתגר שתפגשו בהמשך הדרך.
למה הבוט "נחסם" לפעמים?
כשאתם מבקשים מ-ChatGPT להעלות רעיונות למתנה, הוא זורם עם רשימה עשירה, אבל רגע אחרי שאתם מבקשים ממנו לפתוח קובץ PDF בראשכם, הוא מצהיר שזה מחוץ ליכולותיו. אותה חוויה מתרחשת ב-Claude כשעוברים משיחה על פילוסופיה לבקשת סקריפט אוטומציה, או ב-Midjourney כאשר אתם מנסים לשלב בקשה גרפית שנשמעת "טכנית מדי". ההסבר פשוט: כל המערכות האלו נשענות על מודל צר שתוכנת לבצע פעולות מילוליות או חזותיות, ולא על מנגנון רב-תכליתי שמסוגל להריץ קוד, לפתוח קבצים ולשלב בכפיפה אחת גם יצירתיות, גם חישוב וגם שליטה במכשירים אחרים.
AGI אמיתית לא הייתה בוררת בין בקשות. כמו מוח אנושי, היא הייתה מעבירה מידע בין "אזורי מומחיות" פנימיים כך שהמעבר משיחה לאינטראקציה עם קובץ היה שקוף לחלוטין. ההיתקעות הנוכחית שאנחנו חווים היא בעצם תזכורת לכך שאנחנו עדיין משתמשים בלגו של מודולים נפרדים ולא במכונה אחת הוליסטית.
הזיכרון הקצר של מודלים צרי-מוח
אתמול סיפרתם לצ'ט על פרויקט חשוב והוא זכר כל פרט; היום אתם חוזרים ומגלים שהוא מבקש שוב הסברים. למשתמש זה נראה כמו שכחה בלתי מוסברת, אך מאחורי הקלעים פועל מנגנון הקשר מוגבל: המודל שומר רק כמות קטנה של טקסט מההיסטוריה כדי לא להעמיס על המחשוב והעלויות. AGI עתידית הייתה אמורה לטפל בבעיה אחרת לגמרי – ניהול ידע מתמשך, מאורגן וניתן לשליפה בכל רגע, בדומה לזיכרון ארוך הטווח שלנו. כל עוד אנחנו במציאות הצרה, כדאי לזכור שה"ראש" של הבוט דומה יותר לפתקיות דביקות מאשר לארכיון מסודר.
כשהתשובה נשמעת בטוחה מדי
ביקשתם ממידג'רני תמונת עוגת שכבות בסגנון ויקטוריאני וקיבלתם עיצוב מרהיב – אבל עם שמונה שכבות במדרג לא אחיד. או שנתקלתם בתשובת עובדה ב-ChatGPT שנשמעת החלטית אך מתגלה כשגויה. הביטחון הזה הוא תוצר של מנגנון הסתברותי: המודל מנחש את המילה או הפיקסל הבא שנראים לו סבירים ביותר בהתאם לדפוסים שראה באימון, בלי מושג פנימי של "נכונות". AGI היתה אמורה לשלב יכולת ביקורת ולהצליב מקורות לפני הצהרה החלטית, אולם בינתיים אנחנו מקבלים בעיקר זרם מילים או תמונות מעוצבות היטב שרק מדמות הבנה עמוקה.
איך להפוך את ההבנה לפעולה יומיומית
הידיעה שהמערכת סובלת מזיכרון קצר מלמדת אותנו להצמיד תזכורת קצרה בכל פתיחת שיחה, ממש כמו שהייתם מזכירים לעמית חדש מהו ההקשר של הפרויקט. אם אתם צריכים מעקב מתמשך, העתיקו לסיכום חיצוני את הרעיונות החשובים, כדי שלא ייעלמו בין הדורות של הטוקן.
כאשר אתם נתקלים בשאלה שהמודל מסרב לבצע, נסו לפרק אותה למשימות קטנות שהן "בתוך התחום שלו": במקום לבקש מ-ChatGPT לפתוח קובץ ולהוציא נתונים, בקשו ממנו לנסח נוסחה שתכניסו בעצמכם בגיליון. כך תעקפו את גבולות המומחיות הצרה בלי לבזבז זמן על ניסוחים עקרים.
ולבסוף, זכרו שהביטחון של התשובה לא מבטיח דיוק. לפני שאתם מצטטים עובדה או שולחים ללקוח סקיצה מקרית של Midjourney, השקיעו דקה בבדיקה חיצונית קטנה. ההרגל הזה שומר עליכם בדיוק כמו בדיקת הגהה אחרונה במייל: פעולה קטנה שמונעת אי-נעימויות גדולות, עד שה-AGI המובטחת תעמוד בסטנדרט שלנו לבקרת איכות.