שִׂים לֵב: בְּאֲתָר זֶה מֻפְעֶלֶת מַעֲרֶכֶת נָגִישׁ בִּקְלִיק הַמְּסַיַּעַת לִנְגִישׁוּת הָאֲתָר. לְחַץ Control-F11 לְהַתְאָמַת הָאֲתָר לְעִוְורִים הַמִּשְׁתַּמְּשִׁים בְּתוֹכְנַת קוֹרֵא־מָסָךְ; לְחַץ Control-F10 לִפְתִיחַת תַּפְרִיט נְגִישׁוּת.
 

חמישה דברים שלא כדאי לספר ל-ChatGPT שלכם

הכתבה הזו הייתה הנצפית ביותר השבוע בגלובס ועל כן אנחנו מפרסמים אותה מחדש כשירות לקוראינו • הבוטים רוצים ללמוד עלינו הכל, ובכל שיחה עם ChatGPT, ג'מיני או קלוד, הבינה המלאכותית אוספת עלינו עובדות קטנות ושומרת אותן בזיכרונה • הנה הדברים החשובים שהחוקרים חושבים שכדאי לכם לשמור לעצמכם ולא לשתף אותם בצ'אט הקרוב שלכם

ChatGPT / צילום: Shutterstock, FAMILY STOCK
ChatGPT / צילום: Shutterstock, FAMILY STOCK

למדתי הרבה מ-ChatGPT של OpenAI בשנים האחרונות. והבוט למד עליי הרבה. הבינה המלאכותית אספה עובדות קטנות משיחותינו הרבות ושמרה אותן בזיכרונה. היא זכרה שאני אוהבת ביצים, שיש לי תינוק שיונק כדי להירדם, ושאני צריכה לשנות את שגרת האימונים שלי בגלל כאבי גב. היא גם זכרה דברים אישיים יותר שלא אחזור עליהם כאן.

לסין יש נשק כלכלי רב־עוצמה נגד ארה"ב, האם היא תעשה בו שימוש?
"הוא משקר מדי יום": בקונגרס דורשים תשובות מטראמפ בקשר לאיראן

זה לא משנה איזה צ'אטבוט תבחרו: ככל שתשתפו יותר, כך הם יעילים יותר. מטופלים מעלים את תוצאות בדיקות הדם שלהם לצורך ניתוח, ומהנדסים מדביקים קטעי קוד שלא פורסם לקבלת עזרה באיתור תקלות. חלק מחוקרי הבינה המלאכותית אומרים שכדאי שנהיה בררנים יותר לגבי מה שאנחנו מספרים לכלים האלה שמדברים כמו בני אדם. מידע שהוא במיוחד מסוכן לשיתוף הוא מספר תעודת זהות או מידע קנייני של החברה שלכם.

חברות הבינה המלאכותית רעבות לנתונים כדי לשפר את המודלים שלהן, אבל אפילו הן לא רוצות את הסודות שלנו. "אנא אל תשתפו מידע רגיש בשיחותיכם", מפצירה OpenAI. וגם גוגל מתחננת בפני משתמשי ג'מיני שלה: "אל תזינו מידע סודי או נתונים שלא הייתם רוצים שמבקר יראה".

חוקרי בינה מלאכותית אומרים כי שיחות על הפריחה המוזרה שלכם או טעויות פיננסיות עלולות לשמש לאימון הבינה המלאכותית של העתיד - או במקרה יותר גרוע להתגלות בהדלפת מידע. הנה מה לא כדאי לציין בשאלות שלכם, וכיצד לנהל שיחות פרטיות יותר עם בינה מלאכותית.

שמרו על פרטים חסויים

צ’אטבוטים יכולים להישמע אנושיים בצורה מצמררת, וזה גורם לאנשים להיפתח באופן מפתיע בשיחות איתם. כשאתם מקלידים משהו לצ’אטבוט "אתם בעצם מאבדים עליו שליטה", אומרת ג'ניפר קינג, עמיתה במכון סטנפורד לבינה מלאכותית ממוקדת-אדם.

במרץ 2023, באג ב-ChatGPT אפשר למשתמשים לראות מה אחרים הקלידו בתחילת שיחותיהם. מאז החברה תיקנה זאת. OpenAI גם שלחה הודעות אישור מנוי לאנשים הלא נכונים, וחשפה שמות פרטיים ומשפחה, כתובות אימייל ומידע על תשלומים.

1 פרטים אישיים: היסטוריית השיחות שלכם גם עלולה להופיע במאגר מידע שנפרץ או להיות מועברת לחברה בדרישה לצו חיפוש. הגנו על חשבונכם באמצעות סיסמה חזקה ואימות דו-שלבי. והימנעו מלשתף את הפרטים הבאים: מידע מזהה. זה כולל מספר תעודת זהות, רישיון נהיגה ודרכון, וכן תאריך לידה, כתובת ומספר טלפון. חלק מהצ'אטבוטים מנסים להשחיר מידע כזה. "אנחנו רוצים שהמודלים שלנו ילמדו על העולם, לא על אנשים פרטיים, ואנחנו ממזערים במכוון את איסוף המידע האישי", אמרה דוברת של OpenAI.

2 תוצאות רפואיות: סודיות היא ערך יסוד ברפואה כדי למנוע אפליה ומבוכה, אבל צ'אטבוטים בדרך כלל אינם נכללים בהגנה מחמירה החלה על נתוני בריאות. אם אתם מתפתים לבקש מהבינה המלאכותית לפרש בדיקה רפואית, חתכו את התמונה או ערכו את המסמך לפני ההעלאה: "נסו להשאיר רק את תוצאות הבדיקה ולמחוק מידע מזהה", ממליצה קינג.

3 חשבונות פיננסיים: הגנו על מספרי חשבון הבנק וההשקעות שלכם, שיכולים לשמש למעקב או גישה לכספים.

4 מידע קנייני של החברה: אם אתם משתמשים בגרסאות הציבוריות של צ'אטבוטים פופולריים למטרות עבודה, אתם עלולים לחשוף בטעות נתוני לקוחות או סודות מסחריים - אפילו בפרט קטן כמו ניסוח מייל. סמסונג למשל, אסרה את השימוש ב-ChatGPT אחרי שמהנדס הדליף קוד מקור פנימי. אם בינה מלאכותית מסייעת לכם בעבודתכם, החברה צריכה לרכוש גרסה ארגונית, או לפתח מערכת מותאמת עם הגנות ייחודיות.

5 פרטי כניסה: עם עלייה בסוכני בינה מלאכותית שמבצעים משימות בעולם האמיתי, יש יותר סיבות למסור פרטי חשבון לצ'אטבוט. השירותים האלה לא נבנו ככספות דיגיטליות - שמרו את הסיסמאות, הקודים ושאלות האבטחה שלכם למנהל הסיסמאות.

העלימו עקבות

כאשר אתם נותנים משוב על תגובה של הבוט - למשל אגודל למעלה או למטה, אתם עשויים לאפשר לכך שההנחיה והתשובה שלו ייבחנו ואפילו ישמשו לאימון. אם השיחה תסומן כרגישה (למשל, אם תציינו אלימות), ייתכן שעובדי החברה יעברו עליה.

קלוד של Anthropic לא משתמש בשיחות לאימון ומוחק מידע אחרי שנתיים, כברירת מחדל. ChatGPT של OpenAI, Copilot של מיקרוסופט ו-ג'מיני של גוגל כן משתמשים בשיחות, אך מאפשרים ביטול דרך ההגדרות. אם הפרטיות חשובה לכם, נסו את הטיפים הבאים:

מחקו שיחות לעיתים תכופות. משתמשים זהירים במיוחד צריכים למחוק כל שיחה מיד בסיומה, אומר ג’ייסון קלינטון, מנהל אבטחת המידע ב- Anthropic. חברות לרוב מוחקות מידע "שנמחק" לאחר 30 יום. מי יוצאת מן הכלל? DeepSeek, שיש לה שרתים בסין. לפי מדיניות הפרטיות שלה, היא יכולה לשמור את הנתונים שלכם ללא הגבלת זמן, ואין אפשרות לבטל זאת.

השתמשו בצ’אט זמני. האפשרות של צ'אט זמני (Temporary Chat) של ChatGPT, שנמצאת בפינה הימנית העליונה של חלון הצ’אט, דומה לגלישה בסתר בדפדפן. הפעילו אותה כדי למנוע מהבוט לשמור את השיחה בזיכרון. הצ’אט לא יופיע בהיסטוריה, והתוכן לא ישמש לאימון.

שאלו בעילום שם. Duck.ai, מבית מנוע החיפוש הפרטי DuckDuckGo, מעביר את ההנחיות בעילום שם למודל הבינה המלאכותית שתבחרו, כולל קלוד ו-ChatGPT של OpenAI, שטוען שהנתונים לא משמשים לאימון. הוא לא יכול לעשות כל מה שצ’אט מלא עושה, כמו ניתוח קבצים.

רק זכרו: הצ’אטבוטים מתוכנתים להמשיך את השיחה. זה תלוי בכם לעצור אותה - או ללחוץ על "מחק".