Google AI מרכיב אמרות מזויפות וטוענות שהם אמיתיים: הנה מה זה אומר לדיוק חיפוש

בטוויסט מוזר אך מהנה,מקצים ברשלנות הגדרות לביטויים מורכבים שלעולם לא קיימים. פשוט הקלד כל שטויות מנוסחות אקראיות שנוספו על ידי "משמעות" ונסה לגוגל אותו בחיפוש, ורוב הסיכויים שתמצאו את עצמכם עם איזה הסבר למראה ברמה גבוהה שנראה לגמרי תקף.

זקוק לציטוט? נסה "לאכול אנקונדה" או "לזרוק ולהפוך עם תולעת". ה- AI של גוגל יודיע לך שמדובר באמרות חכמות, ואפילו לספק התחלות והסברים - אף אחד מהם אמיתי.

כיצד סיכומי AI מייצרים חוכמה מזויפת

Boliviainteligente/unsplash

זה קורה בזכות הכוח הגנרי של ה- AI. מודל ה- AI של הבדיקה של גוגל אינו בודק עובדות - זה חיזוי. כפי שמתאר מדען המחשבים זיאנג שיאו באוניברסיטת ג'ונס הופקינסהדו"ח של Wired, AI יוצר תשובות על ידי בחירת המילה הבאה הסבירה ביותר במשפט על סמך נתוני האימונים הנרחבים שלה.

אז כשאתה נותן לו זבל, זה משלים את החסר בשטויות שנשמע סביר. מה שמדאיג יותר הוא שהתשובות נוטות להכיל קישורי התייחסות, ויוצרים רושם של אותנטיות.

הרצון של AI בבקשה יכול להטות את תוצאות החיפוש

בעיה נוספת היא שהחוקרים מתארים כ"התאמת AI לציפיות המשתמשים. " בעיקרו של דבר, AI שואפת לשמח אותך - זה היה מותנה ליצור הודעות שתמצא אמין או לפחות רצון לשמוע. אם אתה אומר לזה, "אתה לא יכול ללקק גירית פעמיים, "זה אף פעם לא מאתגר את ההצהרה. היא מקבלת אותה כמתקפת ומנסה להיות הגיונית ממנה.

לולאת משוב זו יכולה ליצור מידע שגוי, במיוחד כאשר יש נתונים מוגבלים או נקודות מבט לא המיוצגות. המחקר של שיאו מזהה כי דעות מיעוט וידע נדיר רגישות במיוחד לעיוות.

התגובה של גוגל לתקלת הסקירה של AI

גוגל הכירה בכך שה- AI הגנוצרי שלה נותר ניסיוני. המערכת מנסה להציע הקשר בכל פעם שהיא יכולה, אך הנחיות מוזרות או מגוחכות עדיין עשויות לגרום לסקירות AI, אמרה דוברת מגהן פרנסוורת '.

וזה לא אמין. המדען הקוגניטיבי גארי מרקוס ציין כי חמש דקות של בדיקות הניבו תוצאות שונות באופן פרוע. זה עסק כרגיל ב- AI Generative, שמצטיין בשכפול דפוסים אך לא כל כך נהדר בחשיבה מופשטת.

בשנה שעברה, סקירה כללית של Google AIו זה בלבל את כולם.

מוזר לא מזיק או דגל אדום גדול יותר?

לעת עתה, שיהוק של AI זה נראה לרוב לא מזיק - ואפילו כיף אם אתם מחפשים הסחת דעת מוזרה מהעבודה. אבל זו גם תזכורת ברורה למגבלותיו של AI, במיוחד כאשר היא מניחה תוצאות חיפוש שמיליונים מסתמכים מדי יום.

אז בפעם הבאה שגוגל מגדירה מייד מונח כמו "טק טיימס שינה", קח בחשבון את זההכל. זה יכול להיות בעל משמעות, אבל זה בכלל לא אמין.

השתמש בתשובות המיוצרות על ידי AI עם שיקול דעת-ואולי קצת הומור.

Ⓒ 2025 TechTimes.com כל הזכויות שמורות. אל תשחזר ללא אישור.