פרק 55. תנאים של אמת: טכנולוגיה וידיעה עם ד”ר בועז מילר

להאזנה לפרק לחצו פליי כאן, יש לגלול מטה על מנת לקרוא את התמלול

להאזנה בכל יישומוני ההסכתים או לצד תמלול כאן באתר

Apple
Google
Spotify
YouTube
RSS
Pod.link

המדיה החדשה היא סוג של מגדל בבל אפיסטמי. שיתוף זו פעולת דיבור חדשה, אין נורמות יציבות שמסדירות אותה. זאת אומרת, הנורמה לשיתוף היא משהו כמו: שתף משהו אם הוא מעניין, לא שתף משהו אם הוא נכון

ד”ר בועז מילר

לפני שנתחיל יש לי הכרזת בכורה: אני משיקה פודקאסט נוסף בשם “דינוזאוריות רשת” על ההיסטוריה של האינטרנט בישראל, כל שאר הפרטים עליו בסוף הפרק. היום נדבר על טכנולוגיה ואפיסטמולוגיה, כלומר תורת ההכרה, שעוסקת בשאלה מה זאת ידיעה, איך היא נרכשת, ומהו היחס בין המציאות לידיעה

פילוסופים לא כל כך חשבו על השאלה איך האמצעים הטכנולוגיים שדרכם אנחנו רוכשים ידיעה משפיעים על מצב הידיעה שלי

זה היה האורח שלנו, ד”ר בועז מילר, חוקר אורח במרכז ללימודי אינטרנט מתקדמים בגרמניה, ומרצה בכיר בתוכנית למערכות מידע ניהוליות במכללה האקדמית צפת

ואני חוקר פילוסופיה של המדע והטכנולוגיה ואפיסטמולוגיה חברתית

בועז חושב שאפשרויות טכנולוגיות שונות משפיעות על היכולת לדעת משהו, ועל התפיסות שלנו לגבי דברים כמו אחריות ועדות. עם התיאוריה שלו נתבונן מזווית שונה על כמה מקרי בוחן כמו: מה באמת מסוכן בדיפ פייק, מה באמת הבעיה עם שיתוף מידע ברשת, או באיזה מובן מכונה יכולה לעמוד מאחורי דבריה


יום אחד אני בא לצאת מהחניון עם האוטו, אני ממהר, ואני רואה כמה עובדים שם מעבירים מלט מצד לצד, והדלת של החניון לא נפתחת, החניון חסום ואי אפשר לצאת. ועומד שם גם במקרה נציג מוועד הבית. אז אני אומר לו “מה קורה? אני צריך לצאת”. אז הוא אומר “מה, אתה לא יודע? אנחנו פה עושים שיפוצים, מעבירים כבל, אי אפשר לצאת”. אמרתי “מה זאת אומרת אי אפשר?” אז הוא אומר “תראה, אני הודעתי את זה אתמול בקבוצת הווצאפ של הבניין”. אז אמרתי לו ככה “היה הורג אותך גם לתלות שלט במעלית?” עכשיו, מה הלקח מהסיפור הזה? ווצאפ זה אמצעי טכנולוגי די חדש, שלא היה קיים לפני כמה שנים, ומאפשר ליצור קבוצות בעלות עניין משותף, במקרה הזה זה דיירי הבניין. לקחת קבוצה מסוימת ולשדר לכולם מסר בבת אחת, מה שהיה קשה לעשות לפני ההופעה של הטכנולוגיה המסוימת הזו. זה שכולם שם, לכולם יש ווצאפ, בעצם הופך את האפשרות הזאת לאפשרות מעשית

ההכנסה של הטכנולוגיה הזו שינתה את כל מערך ההתחייבויות הנורמטיביות סביב הפצת ידיעות. זאת אומרת, בעיניו לפחות, וכנראה בעיני הרבה אנשים, ברגע שהקבוצה הזו קיימת, זו נהייתה אחריות שלי לבדוק את הקבוצה. קודם זו ללא ספק הייתה האחריות שלו, אולי לתלות שלט בבניין, או לעבור דירה דירה. עכשיו לא, עכשיו זה בעצם העביר את האחריות אלי. שינוי האפשרויות הטכנולוגיות שינה את סף האחריות. ההשפעה המהותית של טכנולוגיה זה על קביעת סף האחריות. אם פעם רופאה הייתה יכולה להגיד אוקיי, אלו הדברים שלמדתי בספרים, ואלה הספרים שנמצאים אצלי בספרייה, אני יכולה להגיע לאבחנה על בסיס הידע הזה; היום היא צריכה במקרים מסוימים להתעדכן בפאב-מד. עצם האפשרות שלה עכשיו לגשת מאד בקלות למקורות המידע האלו, משנה את סף האחריות, גם סף האחריות המקצועית אבל גם סף האחריות האפיסטמית

אז בואו נדבר קצת על אפיסטמולוגיה. מה חשבנו עד כה על ידיעה, ומה משתנה שם בעקבות הטכנולוגיה החדשה

הנושא של איך טכנולוגיה קשורה לידיעה הוא נושא שפילוסופים לא כל כך עסקו בו. התפיסה המקובלת של ידיעה בפילוסופיה היא של מצב מנטלי שנקרא האמנה, שיש לה תכונות מסוימות: היא צריכה להיות אמיתית, זאת אומרת, תואמת למצב העניינים בעולם, וצריכה להיות לה הצדקה, למשל, היא מגובה בראיות. בעקבות ההופעה של האינטרנט התחילו להגיע כל מני טיעונים ספקניים שאומרים: באינטרנט יש אתרים מתחזים שנראים כמו אתרים אמיתיים, יש בוטים שנראים כמו אנשים, יש פייק ניוז שנראה כמו ניוז, וקשה לנו להבחין בין הדברים, ולכן גם אם אני רוכש האמנות מהאינטרנט שהן אמיתיות, הן בעצם לא מהוות ידיעה, כי בקלות הייתי יכול לקרוא ידיעה לא נכונה ועדיין להאמין בה. זאת אומרת, יש פה בעצם שתי בעיות, אחת היא שאני יכול פשוט לגבש האמנות כוזבות, לא נכונות, והשנייה היא שגם אם ההאמנות שלי אמיתיות, הן אמיתיות במקרה. די בקלות הייתי יכול להגיע לאתר אינטרנט אחר ולגבש האמנה אחרת. זאת בעיה אחת

בעיה נוספת היא, שיש ריבוי של מידע וריבוי של מקורות. אם פעם היו מקורות שנחשבים למקורות סמכותיים, סמכויות אפסיטמיות, קשורות לידיעה, אז היום יש המון קהילות אלטרנטיביות, חלקן יותר טובות חלקן פחות טובות, ובעצם אני יכול למצוא מגוון רחב של טיעונים ושל ראיות ושל סימוכין לכל טענה. זאת אומרת, אני יכול לתקוף כל מקור ידע סמכותי או סמכותני עם סמכות אחרת, אלטרנטיבית. ההתפתחויות האלה גרמו לחלק מהאנשים להגיד אוקיי, אז אנחנו בעצם לא יודעים כלום. לא יכולים לדעת שום דבר, ולכן אנחנו לא יודעים. הדאגות האלה, למרות שהן אמיתיות – ויכול להיות שבאמת במקרים מסוימים אנחנו לא יודעים, או אין לנו ידע כמו שהיה לנו פעם – עדיין צריך לשאול שאלה מקדמית, ולהגיד רגע, איך התלות הזו שלנו בטכנולוגיה בכלל משפיעה על מצב הידיעה שלנו? אולי אם אני אצליח לענות על השאלה הזו, או שתהיה לי תיאוריה שאני אוכל להסביר איך הידע שלי קשור לאמצעים הטכנולוגיים, אז אני אוכל לענות על השאלה הזאת, של מה אני יודע או מה אני מסוגל בכלל לדעת על בסיס טכנולוגיה

זאת בעצם המסגרת התיאורטית הכללית שאנחנו – אני ושותפי, אייזיק רקורד ממישיגן סטייט יוניברסיטי – מנסים לפתח: אין סף אחד להצדקה. באפיסטמולוגיה מסורתית הניחו שהסף להצדקה (נגיד, כמות הראיות שאת צריכה כדי להגיד שאת יודעת משהו) היא קבועה, היא לא משתנה. ואנחנו טוענים שזה לא נכון, היא בעצם פונקציה של הטכנולוגיה, או ליתר דיוק, של אפשרויות הפעולה המעשיות שהטכנולוגיה מאפשרת

במילים פשוטות יותר, כולם מדברים על פוסט-אמת, אבל בועז חושב שאנחנו צריכים להבין קודם את השפעת הטכנולוגיה על הידיעה, כדי לדבר בכלל על תנאים לאמת

טכנולוגיה פועלת כחלק מאיזשהו מערך אילוצים, שקובע מה הסף האפיסטמי שנדרש להאמנה אחראית, או לידיעה. ומרגע שמבינים את זה, כל התהיות הספקניות מקבלות צבע אחר: זה לא שאנחנו לא יכולים לדעת באופן עקרוני, פשוט מה שהשתנה זה כל המערך של הדרישות הנורמטיביות שנדרשות כדי לטעון לידיעה (מידת החקירה שצריך לעשות, הראיות שאפשר להתבסס עליהן וכו’). יכול להיות שבמקרים מסוימים באמת אגיע למסקנה שאי אפשר לדעת, כי כמות החקירה הנדרשת היא אינסופית, אבל יכול להיות גם באותה מידה שלא, כי אני יכול להגיד אוקיי, העניין הזה לא מספיק חשוב כדי שאני אכנס לכל הקבוצות האפשריות כדי להגיע להאמנה אחראית מספיק, שאני אבדוק את המקורות א’ ב’ וג’

או: קל לי יותר להגיע למקורות מהימנים בגלל שיש לי את רשת האינטרנט, ואני יכול לזהות שמות מתחם, להגיד איזה מקורות הם מהימנים ואיזה לא, ודווקא קל יותר להגיע לידיעה. בעצם טכנולוגיה משפיעה על סף אפסיטמי, סף ראייתי, כמה מאמצי חקירה אני צריך לעשות, וכמה ראיות אני צריך לצבור; בעצם הטכנולוגיה קובעת את זה, במידה רבה. כן, יש פה איזה הד של דטרמיניזם טכנולוגי ולא במקרה. מרגע שטכנולוגיה מאפשרת משהו שלא היה קודם, והמשהו הזה, הפעולה הזו, מאפשרת לי לעשות חקירה שלא יכולתי לעשות קודם יחסית בקלות, אנשים מתחילים לצפות ממני לעשות את זה, זה נהיה חלק ממערך הציפיות הלגיטימיות של אנשים אחרים

כרמל: יש לי וידוי. על רוב הנושאים אין לי דעות מגובשות בכלל, ולכן אני גם לא ממהרת להתייחס לכל דבר שקורה, ולא ממהרת לפסול אנשים בגלל הדעות שלהם. אחת הסיבות לזה היא, שכדי לגבש דעה מושכלת על משהו, כל דבר (נניח, חיסון קורונה בעד או נגד), צריך לעשות מחקר בסדר גודל של דוקטורט, שכולל עשרות אלפי מקורות מסוגים שונים ומשבעה צדדים, שכל הזמן גם ממשיכים להתעדכן. אז מכיוון שאין לי זמן לעוד דוקטורט, אני לא מתכוונת לגבש דעה נחרצת על בסיס שלושה דברים שאולי קראתי ברפרוף. בעיני זה לא אחראי.  בכל פעם שקורה משהו, אני רואה עשרות אנשים כותבים על זה פוסטים, נותנים את השני שקל שלהם, והם עושים זאת על בסיס אותה כתבה שכולם קראו בווינט. טכנולוגיה כמו פייסבוק יוצרת מצב שכל אחד ואחת מרגישים מחויבים להגיב על ענייני היום, אבל בעיני זה ממש לא חובה. אפשר שלא, באמת אפשר. במיוחד כשחסר לכם ולכן המון מידע. וכבר יצא שראיתי אנשים מתנצלים על דברים שירו בתגובה ראשונית, לאחר שמידע אחר הגיע לידיהם. הגישה של בועז לנושא, נתנה לי שפה להגדיר למה אני נמנעת מוויכוחים ברשת ומה הבעיה איתם

בועז: יש עמימות מאד גדולה לגבי מהן הדרישות הנורמטיביות, או מהו סף הראיות או סף ההצדקה שצריך, עבור מדיומים שונים (אני לא אוהב את המילה מדיה כי זה לא עברית, אז אני אומר מדיומים). יש סף אפיסטמי די ברור ונורמות אפיסטמיות די ברורות, למשל, לגבי פרסום בעיתון. צריך לבקש תגובה, להצליב מקורות, מערך שלם של נורמות שקובע מה צריך להיות הסף האפיסטמי כדי לטעון טענה במדיום הזה שנקרא עיתונות. לעומת זאת, יש באמת הרבה עמימות כלפי המדיומים האינטרנטיים של רשתות חברתיות. ממש לא ברור מה צריך להיות הסף האפיסטמי כדי להעלות פוסט בווצאפ או להביע פוסט בפייסבוק. אני לא בטוח שצריך להעלות את הסף כל כך גבוה בשביל לפרסם פוסט. זאת אומרת, אם מדובר רק לצורך הבעת דעה בשיחות סלון, אז אולי אפשר להסתפק בסף נמוך יחסית. אם מדובר באבחון של סרטן אז צריך לדרוש סף גבוה יותר, מאמץ יותר גדול. אנשים יש להם תפיסות מאד שונות לגבי כמה בטוח אני צריך להיות כדי לטעון משהו

מעבר לזה יש את התופעה שנקראת קריסת הקשרים; אותו פוסט מגיע לאנשים רבים ושונים, וכל אחד משלים את הפרטים על בסיס הידע הקודם שלו, ומשליך את סף הוודאות שהוא חושב או שהיא חושבת שמתאימים לסוג כזה של פרסום, וזה מאד שונה מאדם לאדם. וזה יוצר מן איזה מגדל בבל אפיסטמי. אנשים מדברים בעצם כשלכל אחד מהם יש בראש תפיסות מאד שונות של מה סף הראיות או מידת ההצדקה שנדרשת כדי לטעון טענה מסוימת. חלק מהבעיה נובע מזה שעדיין לא ייצבנו, כמו שייצבנו במדיה מסורתית, את הנורמות שקובעות מה צריך להיות מידת הביטחון, או הוודאות, או סף ההצדקה, כדי לטעון טענה מסוימת במשהו מסוים

באפיסטמולוגיה חברתית יש הרבה מחקר סביב נורמות של אמירה או של עדות. זאת אומרת, בגלל שאנחנו יצורים חברתיים, ואנחנו מעבירים מידע באמצעות עדות/אמירה אחד לשני כל הזמן, דווקא יש קונבנציות ונורמות יחסית חזקות של מה סף ההצדקה הנדרש כדי לומר משהו למישהו אחר בשיחה רגילה. הסף הזה הוא יחסית נמוך, לדעתי לפחות, למרות שיש פילוסופים שחושבים שהסף הוא ידיעה, עליך להגיד רק כאשר אתה יודע. אבל זה אידאליסטי. הנקודה היא פחות אם הסף הוא נמוך או גבוה, אלא העובדה שקיימות נורמות שיחניות די ברורות לגבי שיחות בעל פה, לגבי מה אני יכול להגיד או לא להגיד. אני לא אשקר סתם לאדם ששואל אותי מה השעה ברחוב, זה מוטבע בי עמוק מדי, הנורמה השיחנית הזאת, כדי שאני לא סתם אטעה מישהו. במדיה חברתית זה לא המצב. לא גיבשנו את מערך הנורמות הזה, ואז אנשים יכולים לשתף פוסט ולהגיד אוקיי, אני רק שיתפתי, אני לא אחראי למה שכתוב

כרמל: שיתוף זו לא עדות, זו לא אמירה

בועז: שיתוף זו לא עדות. יש פילוסופית בשם רגינה ריני, שטוענת ששיתוף זה עדות מעוותת, אבל היא טועה זה פשוט שתי חיות אחרות. שיתוף ועדות הן פעולות דיבור שונות. לעדות יש נורמות די חזקות שמסדירות אותה, להעמיד מישהו אחראי – להגיד שיקרת, או טעית, הוא יגיד סליחה אני מצטער או יכחיש וכו’ – אני יכול להעמיד אותו בפני נורמות ששולטות או עושות רגולציה על הפעולה הזו של עדות. שיתוף זו פעולת דיבור חדשה, אין נורמות יציבות שמסדירות אותה. הן לא נורמות שנוגעות לאמת או למידת הוודאות בתוכן המשותף. זאת אומרת, הנורמה לשיתוף היא משהו כמו “שתף משהו אם הוא מעניין”, לא שתף משהו אם הוא נכון

גם הפילוסופית אמילי סאליבן כתבה ב2019 על ההבדל בין שיתוף לעדות. לטענתה, כשמשתפים משהו במדיה החברתית, המשמעות והמסר של התוכן משתנים בתהליך ההפצה, ואז בדיחה יכולה להפוך לעדות, פייק לאמת, ולהפך. נניח שאני עושה שיתוף לפוסט שכתב דונלד טראמפ. האם אקט השיתוף אומר שאני תומכת בו ועמדתי זהה לתוכן של הפוסט שלו, או שאולי אני משתפת את זה כדי ללעוג לו ולהצחיק את חבריי, או להתריע, להראות כמה שדבריו מסוכנים? כל התשובות נכונות, לכו תדעו. לטענת סאליבן, כל השיתופים האלו בסוף שוחקים את האמון שלנו בדברי הזולת

זה שוב מחזיר אותי לעניין של מה הטכנולוגיה מאפשרת או חוסמת. אם היית צריכה למלא לפני שאת משתפת תיבת טקסט קטנה שאומרת “הסבירי בבקשה למה את משתפת” וצריך שם לפחות 40 תווים, או כפתורי רדיו שאומרים אני מסכים/אני לא מסכים/אני לא יודע/אני משתף כי זה מצחיק/אחר, ואת צריכה למלא משהו. זה היה איזשהו תנאי שאת חייבת לעבור אותו כדי לשתף, כל מערך הנורמות מסביב לשיתוף היה משתנה. חוסר היציבות שקיים הוא חלק מהעובדה שהטכנולוגיה לא מייצבת אותו. ופה הרבה מהמחקר שלי עם השותפים שלי נוגע בשאלות של איך אנחנו משנים את הטכנולוגיה ככה שאנחנו מייצבים את הנורמות באופן שהוא מיטבי, כמו שאנחנו חושבים שהנורמות צריכות להיות

אני מניחה שאתם/ן חושבים/ות על התפשטות של פייק ניוז דרך שיתופים בהקשר הזה. אז תשמעו על מחקר מעניין שבועז ערך על זה

מחקר שלי עם ד”ר ארנון קרן וד”ר אביב בר נוי. אז אמרנו לעצמנו, אולי אם נצליח לייצב את הנורמות של השיתוף, זה יגרום לאנשים פחות לשתף פייק ניוז, או לא רק פייק ניוז, בכלל, תוכן רעיל אפיסטמית. עשינו איזו מניפולציה שקשורה ללהציף נורמה לאדם מסוים באופן שהוא לא לגמרי היה מודע שזה מה שאנחנו עושים, כאילו הסווינו את הנורמה של השיתוף כמין סיפור של הבנת הנקרא, והראנו את זה לאנשים, ואז בסוף אמרנו להם “האם תסכימו לשתף את הידיעה הזאת לחברים שלכם, לצורך ניסוי אחר שאנחנו עושים?” ורצינו לראות מה תהיה התגובה שלהם, אם הם ישתפו או לא ישתפו, לאור הנורמה שחשפנו אותם אליה. ומסתבר שחשיפה לנורמות מסוימות (לא כולן) מורידה את הנכונות של אנשים לשתף מידע, זאת אומרת, הם הופכים להיות יותר ביקורתיים

כרמל: יש איזו נורמה שגיליתם שהכי עובדת, שאתה יכול להגיד אותה ספציפית? או שזה לא

בועז: כן, זה קצת מאכזב, אבל הנורמה שהכי עובדת זה תווית אזהרה על הפוסט עצמו, כאילו, “האם אתה בטוח? זה עוסק בעניין בריאותי” וכו’. קצת מאכזב, כי היו לנו מחשבות שדווקא דברים יותר מתוחכמים יעבדו, אבל זה כנראה הדבר הכי יעיל. יחד עם זאת, גם הדברים האחרים עובדים. זאת אומרת, לא מיצינו את כל האפשרויות שבהן אפשר לייצב נורמה, או לשנות את הממשק ולהשפיע על ההתנהגות של אנשים, אז יש פה כר פורה למחקר

זה באמת קצת מאכזב אבל לא כל כך מפתיע שבמקום לחנך אותנו למשהו, פשוט מטמיעים בנו נורמות בצורה כמעט ביהביוריסטית, דרך טכנולוגיה, אבל… כן

יש גם גישות שאומרות בואו נחנך אנשים, וזה כנראה חשוב, אני מדבר יותר על הטמעת נורמות. למשל, באמצעות דרישה מאנשים להסביר למה הם משתפים, הוספת הקשר, או אפילו לעשות איזה פופ-אפ, שזה כבר פייסבוק התחילה לעשות, “המידע שאתה עומד לשתף נוגע לקורונה, האם אתה בטוח שאתה רוצה לשתף?”. זאת אומרת, לשנות את הממשק ככה שאנשים יוסיפו יותר הקשר, יהיו יותר ברורים לגבי הכוונות שלהם. כמובן זה לא סותר את הגברת האוריינות שלהם, אבל זה סוג של נדנוד, דחיפה קלה, שכשהוא נעשה בזמן אמת, אני חושב שזה יותר יעיל מחינוך. וזה עדיף בהרבה על פני לתת לגוגל את תפקיד הצנזור, זה בעיני ממש דיסטופי, להגיד שפייסבוק תחליט מה נכון ומה לא נכון. עדיף לייצב את נורמות השיתוף, פשוט להפוך אנשים ליותר אחראים וביקורתיים לגבי המידע שהם צורכים ומשתפים

אז אם כבר אנחנו בפייק, בואו נתייחס לדיפ פייק דרך המסגרת הזו

דיפ פייק הם סרטונים שמייצרים אותם אלגוריתמים, ובעצם הם יכולים להראות מישהו עושה דברים שהוא לא עשה, אומר דברים שהוא לא אמר, והטכנולוגיה הזאת מאד התפתחה בשנים האחרונות, אפילו כבר כנראה אפשר גם לעשות את זה בלייב, זאת אומרת ממש בשיחת זום, להחליף את הפנים שלך בפנים של מישהו אחר. אז זה איום גדול הדיפ פייק, אבל בעצם למה? תמיד יכולנו לזייף, אז מה בעצם השתנה, מה מהות האיום החדש? אז שוב, בהתאם למסגרת התיאורטית שאנחנו פיתחנו, אמרנו שהשאלה שצריך לשאול היא מה האפשרויות הטכנולוגיות החדשות שהטכנולוגיה הזאת פתחה. ובאמת האפשרות הטכנולוגית החדשה היא לא עצם הזיוף, אלא אחד, שזה מאד קל ולא דורש מאמץ טכני או אמצעים מיוחדים. שתיים, שזה מאד משכנע. ועכשיו בעצם זה פתוח לכולם, כל ילד יכול לעשות את זה באמצעות אפליקציה

ואנחנו משתמשים בתיאוריה של פילוסוף של האמנות בשם נלסון גודמן, שיש לו ספר בשם “דרכי יצירת עולם“,  ואנחנו בעצם אומרים שמה שהטכנולוגיה מאפשרת עכשיו זה דרכים לפברוק עולמות, כמעט בלתי ניתנים לאבחנה מהעולם האמיתי. שזה בעצם מהות האיום, לא עצם אפשרות הזיוף, אלא הקלות שביצירת עולם חדש משכנע. אז אפשר לשאול, אוקיי, אז מתי בעצם זה מסוכן? הרי לא כל זיוף מסוכן. אם אני עושה קטע סאטירי שברור שהוא סאטירה (יש שאיזה דיפ פייק של מלכת אנגליה רוקדת על שולחנות, אני לא יודע אם ראית את זה), אז זה לא מסוכן, אנשים ישר מזהים את זה כסאטירה. שוב, כי יש נורמות יציבות שאומרות אוקיי, אני יודע איך לפרש את הקטע הזה. הטכנולוגיה הזאת היא מסוכנת כשהיא מאפשרת ליצור עולם שהוא בלתי ניתן לאבחנה מהעולם האמיתי, סביב משהו שחשוב לנו מבחינה מוסרית או אפסיטמית

אם אני עכשיו אטעה אותך לגבי החולצה שלי, אם היא אדומה או ירוקה, זה לא משנה. אבל אם אני אגרום לך לחשוב, נגיד, שביידן אמר משהו על נשים, שהוא לא אמר, אז זה חשוב, בתפיסות המוסריות המקובלות שלנו. דיפ פייק הוא מדיום טפילי. זאת אומרת, הוא מתחזה למשהו שהוא לא. ואז, נגיד, הוא נראה כמו כתבת חדשות, ואז באופן מודע או בלתי מודע, אני מחיל עליו את הנורמות שאני מכיר מכתבות חדשות. ופה הטעות, פה המקור לבלבול. זה הטפיליות של המדיום שגורמת לי להחיל עליו סטנדרטים אפיסטמיים לא נכונים. אם אני יודע שזה דיפ פייק אז אני יודע, אין בעיה

כרמל: יש פה משהו מעניין. בעצם בכל הדבר הזה אתה אומר, שכל עוד זה היה קשה לעשות, אז מעט אנשים עשו את זה, והטכנולוגיה לא הייתה טובה, אז גם מעט אנשים נפלו בזה (בזיוף), אז זה היה בסדר שיש זיוף. ומי שנופל בזה, בעיה שלו, כאילו הוא נענש על זה שהוא לא עומד באיזשהו סטנדרט חברתי נורמטיבי, שרוב האנשים יודעים לזהות. נגיד, את העוקץ הניגרי, רוב האנשים יודעים לזהות ספאם כזה, ומי שלא, זב”שו (זו בעיה שלו), שישלח כסף לניגריה. אנחנו נורא מקבלים את הדברים הללו, כי כאילו נראה שיש איזשהו סף נורמטיבי שרוב האנשים יודעים. ומה שאתה אומר זה שכאן, פתאום בעצם זה שזה נהיה קל יותר, יותר אנשים עושים את זה, והם עושים את זה יותר טוב, אין לנו את הסף הנורמטיבי הזה. להפך, יש לנו איזשהו רוב דווקא שיחשוב שזה אמיתי, ויש מיעוט אנשים טכניים עם יכולות לזהות את הזיוף. וזאת הבעיה, זה מה שהתהפך לנו

בועז: כן, זה מה שאני טוען, אבל אני רוצה רק לסייג את זה. זאת אומרת, זה שאני טוען את הטענה הזאת זה לא אומר שאני בהכרח מסכים עם הנורמות הקיימות, לפעמים הן לרעת קבוצות מסוימות ואנשים מסוימים

כרמל: זה שוב העברת האחריות

בועז: אי אפשר להעביר את ההאשמה לקורבן. אז זה לא אומר שאני תמיד משלים עם הנורמות הקיימות ואומר “הנורמות הקיימות הן בסדר”. זה שקיימת נורמה שמאפשרת לכולם או לרוב האנשים להבחין בין מצב עניינים נכון או לא נכון, וטכנולוגיה באה ומשנה את זה, וגורמת להרבה אנשים להתבלבל, זה נכון כטענה אמפירית. זה לא אומר שבהכרח אני מצדיק את הנורמות הקיימות כנורמות הנכונות

תודה לדניאל טיילר פונקי ז”ל על קטע משיר זה שהושמע בפרק

בואו נבין את התאוריה האפיסטמולוגית של בועז דרך שתי דוגמאות נוספות. אחת ישנה יותר, ואחת ממש טרייה. אחד המחקרים הראשונים של בועז בתוך המסגרת התיאורטית הזו, התייחס לאתגר שעורר הרבה שיח לפני כעשור, פיצ’ר האוטוקומפליט, ההשלמה האוטומטית, כשמחפשים משהו בגוגל

האלגוריתם של גוגל משלים באופן אוטומטי את החיפוש שלי. אני יכולה להתחיל להקליד יר– אז הוא כותב לי ירושלים. בואו נראה מה האפשרויות הטכנולוגיות החדשות שנפתחו מהטכנולוגיה הזו. התקשורת באינטרנט במשך הרבה זמן הייתה א-סינכרונית: אני כותב משהו, אני לוחץ על כפתור, אני מקבל תגובה, כמו משחק פינג פונג. הרעיון הזה שאני מקיש משהו ובזמן אמת חוזרות לי תוצאות, הוא יחסית חדש. היא מאפשרת לשתול לאנשים האמנות באופן בלתי רצוני. אני מתחיל לכתוב משהו, בועז מילר, ואז כותבים לי “מצפת” (כי אני חבר סגל בצפת), או בועז מילר בר אילן (כי לימדתי פעם בבר אילן), וזה משנה את ההאמנה של מי שמחפש. זאת אומרת, זה שותל בו האמנה של איפה בועז מילר נמצא, בצפת או בבר אילן 

כרמל: זה קצת כמו רושם ראשוני כזה בעצם, שזה טובע דברים

בועז: הוא טובע דברים, בדיוק. יש לטכנולוגיה הזאת יכולת להגיב בזמן אמת למה שאני חושב, ולטבוע בי רעיונות או מחשבות, וגם להסית אותי מדרכי. עכשיו, היכולות האלה קיימות בדברים אחרים. נגיד, מסרים תת הכרתיים יש גם בפרסומות, אבל שם זה לא היה בתגובה לחיפוש שמישהו עשה, למחשבה שאני חשבתי. עכשיו, תוצאות רגילות באינטרנט, סתם תוצאות חיפוש, הן בתגובה למה שאני מחפש, אבל אין להן את המיידיות הזאת של שתילת המחשבות תוך כדי המחשבה. וזה בעצם האפשרות החדשה, לשתול לאנשים האמנות בזמן אמת, בתגובה למחשבות שמעסיקות אותם באותו רגע. זה לא היה קיים קודם. מי שולט עליה, למי יש את האפשרות הזאת? אז כמובן הטכנולוגיה, לפחות כרגע, בנויה ככה שהאפשרות היא של חברות הטכנולוגיה, של גוגל. ולכן, לפי המסגרת שלנו, מי ששולט באפשרויות, גם האחריות היא שלו. אם הם היו מעצבים את הטכנולוגיה אחרת, כך שיש לי יותר שליטה על ההשלמות שיופיעו או לא יופיעו אצלי, זה היה  מוריד מסף האחריות. כרגע אין לי שום ממשק כזה שאני יכול לקנפג את ההשלמות שמופיעות לי, לכן האחריות כולה היא על גוגל

ואז השאלה מה בעצם צריך לעשות? זיהינו מקרים מסוימים שצריך לחסום השלמות מסוימות, השלמות שמכפישות אדם מסוים. שוב, בגלל המיידיות הזו, האסוציאציה של האדם וההכפשה נוצרת, גם אם אחר כך אני יודע שזה לא נכון. אז את ההכפשות, אפילו אם הן נכונות, צריך לעצור. אז זה מקרה אחד. מקרה אחר, אסוציאציות גזעניות שיוצרות קשר בין קבוצה מסוימת לסטריאוטיפ מסוים. למשל, אני אכתוב “כל הפרנגים” ויופיע לי “קמצנים”. וכמובן ניסיונות “טו גיים דה סיסטם”. ברגע שהטכנולוגיה הזו קיימת, ניסו להושיב הרבה אנשים, דרך אמאזון טרק, שפשוט יקלידו שוב ושוב ושוב חיפושים מסוימים כדי שהם יופיעו לאנשים, פשוט לעשות מניפולציה. אחד המקרים הראשונים היה בארץ, אחד מפסקי הדין הראשונים. עורכי הדין הצליחו לשכנע את השופטת שגוגל נושאים באחריות, על ידי זה שהם עשו מניפולציה על ההשלמות שמופיעות בחיפוש השם של השופטת. אני חושב שהם שינו את זה ל”קיבלה שוקולד”, והם אמרו שהיו יכולים באותה מידה לכתוב “קיבלה שוחד”. משהו כזה, אני לא זוכר בדיוק את הפרטים, אבל זה היה מופע מאד משכנע שהטכנולוגיה ניתנת למניפולציה

כרמל: בזמנו, חברת גוגל התנגדה בתוקף לקחת אחריות על התוצאות הללו. היא טענה שמדובר בתוצאות חיפוש נפוצות של משתמשים, ושהיא רק משקפת אותן. הטענה הזו קשורה לאמונה של אנשי טכנולוגיה רבים וגם של הציבור הרחב, שהטכנולוגיה מציעה אובייקטיביות, שהדאטה משקף תמיד את המציאות. ב2013 למשל, היה קמפיין ויראלי מאד מצליח של נשות האו”ם, שהדגים כיצד האוטוקומפליט מכיל השלמות פוגעניות על נשים, כדי להדגים עד כמה הסקסיזם נפוץ בעולם. גם שם ההנחה הייתה שהחיפוש משקף איזושהי מציאות. אבל חוקר אמריקני בשם טרלטון גילספי הראה בסדרה של מחקרים, שאין דבר כזה דאטה גולמי, ושתמיד בני אדם מעורבים בהגדרות או באוצרות של תהליכים שאמורים לשקף מציאות. למשל, ההאשתגים שמראים לכם מה המגמות ועל מה כולם מדברים (ה”טרנדינג”), לא מופקים אוטומטית. הם מנוקים והם נבררים. אחרת הייתם רואים דברים לא הגיוניים בכל מני שפות, והרבה שיחות על סלבס שלא שמעתםן עליהם, של ילדים. אז כשנוח לחברות הטכנולוגיה הן מתערבות, וכשלא נוח להן, הן שולפות את הטיעון הטכני האובייקטיבי. גילספי אפילו ניתח את המקרה של פוליטיקאי אמריקני בשם ריק סנטורום, שאתר סאטירה עליו היה התוצאה הראשונה בגוגל, והוא הפעיל לחץ על החברה לקבור את האתר הזה. התשובה הרשמית של גוגל הייתה, שתוצאות החיפוש משקפות מציאות אובייקטיבית של חיפוש והם לא יכולים להתערב. אבל בפועל, גילספי הראה שהם כן התערבו, ופתאום האתר התחיל לרדת בתוצאות החיפוש וככה “נקבר” לעמוד השני. כשהם רוצים הם יכולים. ובועז מסביר לנו כאן מנקודת מבטו, מה הסיכון בחשיפה לתוצאות כאלה, מעבר ל”סתם” ייצוג פוגעני

נסיים בדוגמא טרייה ורלוונטית לימינו, שתיתן לנו את הטוויסט הפוסט-אנושי של התיאוריה הזו. אם עסקנו בטכנולוגיה וידיעה, אז נשאלת השאלה אם טכנולוגיה יכולה לדעת בעצמה, ולא רק להוות כלי לידיעה. כשאנחנו מדברים על בינה מלאכותית שמייצרת שיח, אז האם המכונה נותנת עדות?י

שוב, באפיסטמולוגיה חברתית היום כבר יש לנו תיאוריות די מתוחכמות של עדות, אבל פילוסופים, כדרכם, הם שמרנים, והם דיברו רק על בני אדם. והיום הגענו למצב שמחשבים יכולים לתת עדות, ועדות כזאת היא בלתי ניתנת לאבחנה בסיטואציות רבות מעדות של אדם. גם בקול, גם באינטונציה, גם בתוכן הדברים. היום יש אפליקציה של גוגל שאני יכול להגיד לו תזמין לי מקום במסעדה, והוא יתקשר למסעדה ויזמין מקום וידע לדבר, לענות להם לעניין למארח, להגיד אוקיי, אם אין לך שולחן פה אפשר על הבר, ממש לנהל שיחה לכל דבר, והאדם בצד השני לא ידע בכלל שהוא מדבר עם מכשיר. אבל באפיסטמולוגיה חברתית, כדרכם של פילוסופים, לא כל כך עסקו בעדות מכונה, ומעבר לזה, רוב האנשים מכחישים שמכונה יכולה לתת עדות. אומרים שעדות זה משהו שרק אדם יכול לתת, כי היא דורשת מצב מנטלי, דורשת כוונה לידע את הנמען, והיא דורשת האמנה בתוכן הדברים, ומכונות הן לא מסוג הדברים שיכולים להיות להם כוונות או האמנות, ולכן הן לא יכולות למסור עדות

אומרים שעדות זה משהו שאני נושא באחריות, ברגע שאני מוסר עדות לאדם אחר, אז אני נושא באחריות למה שאמרתי. מכונות לא יכולות לשאת באחריות, לכן הן לא יכולות למסור עדות. ואנחנו חושבים שזה פשוט לא נכון. זאת אומרת, זה לא נכון אמפירית. טכנולוגיה יכולה לייצר פלט, שהוא מבחינה פנומנולוגית בלתי ניתן לאבחנה מעדות אנושית, אז לבוא ולהגיד “לא, זה לא עדות”, מעבירה את נטל ההוכחה על מי שרוצה לטעון שזה לא עדות, להסביר לי מה זה כן. אם זה לא עדות אז איך זה שאנשים לא מצליחים להבחין בינו לבין עדות

?כרמל: זה איזשהו מבחן טיורינג לעדות שאנחנו צריכים

בועז: המכונות היום כבר די עוברות את מבחן טיורינג, ואולי המסקנה מזה שמבחן טיורינג הוא לא כזה מבחן טוב. ושוב, אם אנשים לא יכולים להבחין בין הדבר הזה לבין עדות, אז אולי זו בכל זאת עדות. ואת התהיות הנורמטיביות של להגיד “אבל אנשים נושאים באחריות לעדות, מכונות לא”, שוב, אנחנו לא חושבים שזה בהכרח נכון. אנשים לא תמיד נושאים באחריות לעדות. הרבה פעמים אנשים בעצמם הם סוג של רובוטים שרק מעבירים מידע שנמסר להם. יש המון כאלה נציגי שירות לקוחות שמקריאים איזה טקסט כתוב, ואסור להם לסטות ממנו, ואתה שואל אותם שאלה והם נאטמים, כי הם לא יכולים, אסור להם להגיד מה הם באמת חושבים. הם בעצמם בעצם בתפקיד המכונה שמדקלמת איזשהו טקסט. אנשים יכולים להיות בתפקיד המכונה, ואז הם לא נושאים באחריות. נושא באחריות מי שכתב להם את הטקסט. לפעמים אנשים סתם מעבירים מידע והאחריות שלהם היא לא לתוכן הדברים, היא רק למהימנות הדברים, למסירה הנכונה

יש סצנה כזאת ב”השוטר אזולאי“, שאזולאי שואל כזה מישהו ברחוב (לאשתו קוראים בטי) “מה שלום בטי?”, אז הוא שואל עוד איזה מישהו והוא אומר “אזולאי שואל מה שלום בטי” וזה עובר כזה בשרשרת, ואיזה ילד עם אופניים רץ והם שואלים מה שלומך, מה שלומך, ואז היא אומרת “בסדר”. ואז הם מעבירים את זה בחזרה, “בסדר”, “בסדר”, “בסדר”. עכשיו, כל אחד בשרשרת הזאת הוא לא נושא באחריות לתוכן הדברים, האם בטי בסדר או לא בסדר, רק להעברה הנכונה, המהימנה, של הדברים עצמם, זאת אומרת, שהוא לא שיבש את המסר. וזה גם מה שמכונות הרבה פעמים עושות. זאת אומרת, אנחנו לא חושבים שאנשים, הם לא תמיד מן איזה סוכן מוסרי שאפשר לסמוך עליו במלוא מובן המילה כשהם מוסרים עדות. אז זה מוריד את סף האחריות מהם בצורה משמעותית, ואז מכונות גם יכולות לעמוד באותו סף יחסית נמוך

יש איזה פרק ב”מראה שחורה” על מישהי שהחבר שלה מת ואז היא מקימה אותו לתחייה כאנדרואיד כזה. היה מישהו שעשה את זה באמת. אשתו מתה, למרבה הצער, מסרטן. הוא לקח את כל ההתכתבויות שלהם והעביר אותן דרך אלגוריתם של למידת מכונה, ויצר איזה צ’ט-בוט של אשתו, והוא דיבר איתה כמה שיחות מאד עמוקות, והוא הרגיש שהוא ממש משוחח איתה. אז פרסמתי את זה באיזו קבוצת דיון של פילוסופים, ואחת הפילוסופיות, שהיא גם מאד ידועה בתחום של עדות וגם בעמדה השמרנית, אמרה “מה אנחנו עכשיו מדברים על סיאנסים, רוחות המתים מוסרות עדות? ברור שזו לא עדות”. והתשובה שלי הייתה, זאת כן עדות, ודאי שזו עדות, זו פשוט לא עדות של האישה המנוחה. אנחנו לא צריכים לעשות את הטעות ולהניח שבעצם הקמנו מחדש את המת, זה לא מה שעשינו. אבל בפירוש מה שיש כאן זו עדות, שנמסרת על ידי אלגוריתם. זאת אומרת, זו סימולציה, אבל זו עדות לכל דבר ועניין

נראה לי שהחשש של פילוסופים להכיר בעדות מכונה ככזו, קשור להתבצרות בעמדה ההומניסטית, והחשש שישתמע מכך שיש למכונה סובייקטיביות או תודעה, חלילה. אבל את בועז מעניינת יותר ההשלכה של זה על סוגיית האחריות

אחד העמיתים פה במרכז ללימודי אינטרנט מתקדמים, כותב אתנוגרפיה על פסיכולוגים אלגוריתמיים. באוסטרליה יש תופעה יחסית נפוצה של טיפול פסיכולוגי ע”י אלגוריתם, ואחת השאלות המעניינות שהוא שאל זה בעצם איך האנשים שבונים את האלגוריתמים האלה תופסים את השירות שהם נותנים. זאת אומרת, האם הם בונים עכשיו פסיכולוג או עושים משהו אחר? באופן לא מפתיע, הם לא חושבים על עצמם כמישהו שבונה פרסונה פסיכולוגית, הם יותר חושבים על עצמם כמישהו שעושה ספר עזרה עצמית אינטראקטיבי. גם הפרדיגמה הפסיכולוגית היא סי.בי.טי (טיפול קוגניטיבי התנהגותי), היא כזו שמתאימה לסוג הזה של הדברים. אבל יש גם חברות שבונות פסיכולוגים בגישה יותר דינמית. ואז באמת השאלה האם אלגוריתם יכול לעשות את זה, או שבכל זאת צריך את האמפתיה האנושית כדי שהטיפול יעבוד? אבל זו שאלה מעניינת איזו דינמיקה נוצרת כשאנחנו מתחילים ליצור אינטראקציות אנושיות, עדותיות, שיחתיות, עם אלגוריתמים כאלה

כרמל: אני חושבת שגם פה יש עניין של הטכנולוגיה החדשה בבינה מלאכותית, כי עד עכשיו יצרנו אלגוריתמים, אבל הם לא היו בדיוק בינה מלאכותית. אני אפילו חושבת שצ’טבוטים, לפחות הצ’טבוטים הפסיכולוגים הראשונים, כמו אלייזה, לא באמת אפשר לקרוא להם בינה מלאכותית, יש להם כאילו איזשהו תכנות של לשקף לפי מילות מפתח או כל מני דברים כאלה, יש להם פעולות מסוימות. ואז אם משהו קורה, ומישהו, חלילה, פוגע בעצמו בגלל משהו שאמרה אלייזה, אז כן, ברור שאנחנו נחזור למתכנתים, ונחזור לחברה הזו, או לממשלה, או למי שמספק את השירות, והם יישאו באחריות. אבל כשאנחנו מדברים על בינות מלאכותיות במובן של למידת מכונה היום, שאנחנו רק יוצרים איזושהי מסגרת, ואנחנו נותנים לה ללמוד תחום מסוים, ואז על פי זה היא מנפיקה. והיום כבר כל כך הרבה חברות עושות את זה, גם אבחנות רפואיות, כל כך הרבה יישומים של בינה מלאכותית, ואז כשיתחילו התביעות הראשונות בעניין הזה, יוכלו באיזושהי מידה של צדק המתכנתים להגיד, אנחנו לא אחראים למה שיצא מפה, המכונה למדה

בועז: אני חושב לפחות, שלפחות כרגע, עדיין גם המכונות הכי מתוחכמות של למידת מוכנה ושל רשתות נוירונים, אין בהן בינה אמיתית. הם פשוט יוצרים איזו תבנית כזאת, סוג של התייצבות סטטיסטית על תבנית מסוימת. אין פה איזה הדהוד סמנטי כמו שיש, אני חושב, לאנשים בשר ודם, במוח, שכאילו משהו עומד מול משהו אחר. כשאני אומר את המילה כאב אז אני יכול גם להרגיש תחושת כאב. שם מדובר עדיין במניפולציה של סימנים לפי פונקציות סטטיסטיות, ולכן גם פה הסכנה הגדולה, כי בעצם המכונות האלה, כמה שהן מאד מתוחכמות, הן לא מבינות בעצם שיש מולן חולה והן עושות לו דיאגנוזה ומה הסכנות, אין לזה מרחב סמנטי או מרחב נורמטיבי שהן פעולות בו. מבחינתן זה רק מניפולציה של טקסטים

לאור העמדה של בועז, תהיתי מה הוא חושב על הניסיון ליצר כיום אלגוריתמים שיזהו פייק ניוז, כלומר אלגוריתמים יצטרכו ללמוד מהי ידיעה ומהי אמת. האם זה בכלל אפשרי?י

אני אענה לך באנקדוטה. אני נמצא במחלקה למערכות מידע במכללה האקדמית צפת, ואחד העמיתים שלי, אחד מחברי הסגל, פרופ’ מאלכ יוסוף, הוא עוסק באלגוריתמים של למידת מכונה. אז הוא שמע שאני מתעסק בפייק ניוז והוא אמר יאללה, בועז, בוא נפתח אלגוריתם שמזהה פייק ניוז. אמרתי לו, תקשיב, זה בלתי אפשרי, כי בשביל לזהות פייק ניוז אתה צריך להשוות את הכתוב עם עובדות, אתה צריך איזושהי השוואה סמנטית, ולאנשים אפילו קשה – כל מני ארגונים של בדיקת עובדות – קשה לזהות לפעמים מה נכון ומה לא נכון, מה פייק ומה אמיתי. אז האלגוריתמים מראש אין להם את היכולות הסמנטיות האלה. אז הוא חייך ואמר “כן, כן, אמרו לי אותו דבר על אלגוריתמים גנטיים, והיום האלגוריתמיים שלי עובדים בלי בעיה”. אז אני לא יודע, אני עדיין חושב שצריך את ה… כאילו, השיפוטים שנדרשים כדי לקבוע אם משהו הוא פייק או אמיתי, הם שיפוטים סמנטיים, וקשה לי לחשוב על איזו דרך עוקפת, שתזהה פייק ניוז כמו שאנחנו מזהים ספאם


אפשר לראות בפרק הזה המשך לפרק הקודם, שם חיווטנו מחדש את הסוציולוגיה, וכאן את האפיסטמולוגיה. אנחנו כבר 30 שנה עם האינטרנט, ונראה שרק בשנים האחרונות, חוקרים צעירים ממגוון דיסציפלינות, מתחילים להמשיג את הדרכים שבהן טכנולוגיה משפיעה על כל מה שחשבנו שאנחנו יודעים

כל המחקר הזה, אני ואייזיק רקורד, אנחנו מאגדים אותו לכדי ספר, שעוסק באפיסטמולוגיה של טכנולוגיה, של האינטרנט, מה שעדיין לא קיים, עוד אין ספר כזה. ונקדם כך את ההבנה של המקום של טכנולוגיה בחיינו


אז אפרופו 30 שנה עם האינטרנט, העיסוק בניינטיז חוזר לאחרונה לאופנה, וגם אני מצטרפת לטרנד. אני משיקה השבוע עוד פודקאסט בשם “דינוזאוריות רשת“, הפעם יחד עם שותפה, מעין אלכסנדר, וזה פודקאסט שיעסוק באנשים והנשים שעשו את האינטרנט הישראלי. יחד נחזור לעשור הלא מתועד של הניינטיז ברשת, נכסה בהמשך גם את העשור הראשון של שנות האלפיים, ונציע סיפורים שאולי יעוררו בכם ובכן נוסטלגיה, ואולי בכלל לא הכרתםן אותם בזמנו, וכמובן, מה שיש לנו ללמוד מזה למדיה של היום. הפודקאסט יתפרסם במתכונת של מיני-עונה של שבעה פרקים, שעולה בבת אחת לבינג’ ב18 לספטמבר, ותהיה לנו מיני-עונה כזו בכל קיץ. השבוע עולה טריילר ואני אודיע על כך בסושיאל של הפודקאסט הזה, אבל תכלס אפשר כבר למצוא אותו בספוטיפיי בזמן שאנחנו מעדכנות אותו בכל יישומוני ההסכתים, וגם להצטרף אלינו למסע בקבוצת הפייסבוק הסגורה “דינוזאוריות רשת“. כל זה יקרה עוד לפני הפרק הבא של “המצב הפוסט אנושי” שיעלה ב22 לספטמבר, פרק מיוחד לחגים עם אורחת מאד מיוחדת, שממש כדאי לחכות לו. פרטים בסושיאל בהמשך, אז נתראה שם, ונשתמע בקרוב

?רוצה לקבל מייל כשהפרק הבא מתפרסם

:מקורות וקריאה להרחבה

מילר, בועז. (22נובמבר 2021). הקלות הבלתי נסבלת של הזיוף. הרצאה שניתנה במסגרת סמינר המחקר של מכון כהן להיסטוריה ופילוסופיה של המדעים באוניברסיטת תל אביב

Freiman, Ori & Boaz Miller. (2020). Can Artificial Entities Assert? In The Oxford Handbook of Assertion, ed. Sanford C. Goldberg, 415-436. Oxford: Oxford University Press.

Gillespie, T. L. (2016). #trendingistrending: When Algorithms Become Culture. Algorithmic Cultures: Essays on Meaning, Performance and New Technologies, Robert Seyfert and Jonathan Roberge (ed.), Routledge, London.

Gillespie, T. L. (2017). Algorithmically Recognizable: Santorum’s Google Problem and Google’s Santorum Problem. Information, Communication & Society. 20:63-80.

Miller, Boaz & Isaac Record. (2017.) Responsible Epistemic Technologies: A Social-Epistemological ‎Analysis of Autocompleted Web Search. New Media and Society 19(12) 1945-1963.

Record, Isaac. & Miller, Boaz. (2022). People, posts, and platforms: reducing the spread of online toxicity by contextualizing content and setting normsAJPH 1, 41.

Rini, Regina. (2017). Fake News and Partisan Epistemology. Kennedy Institute of Ethics Journal, 27(S2), 43–64.

Sullivan, Emily. (2019). “Beyond Testimony: When Online Information Sharing is not Testifying.” Social Epistemology Review and Reply Collective 8 (10): 20-24.

Published by Dr. Carmel Vaisman

חוקרת תרבות דיגיטלית עם מיקוד בשיח, תיאולוגיה ופוסט-אנושיות Digital Culture researcher focusing on discourse, theology and posthumanism

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

%d bloggers like this: