אוף יצא יותר מדי ארוך... 'סטערת ../images/Emo3.gif
בקשר לתוכנה- זה לא יגרום לחשוב שיש לה מודעות, אם היא תענה באופן שיטתי "אני שמח" אז בן אדם יכול לקלוט שמדובר בתבנית חוזרת. בקשר לפילוסוף הזה....באמת שלא היה לי מושג למה הוא התכוון, פירשתי את זה ככה כי זה די התחבר לנושא, אולי באמת אין קשר למודעות..

אם תשכפלי תוכנה בסיסית לפני שהיא למדה מהסביבה אז אלו כן שתי ישויות שונות, כי הלימוד שלהן מהסביבה יהיה שונה. חלק מהתוכנה יהיה חלק מהאישיות שלה רק אם תכנתו לה מאפיינים קבועים שפחות מושפעים מהלמידה שלה מהסביבה. זה כמו בבני אדם, את יכולה להגיד שאנחנו מפתחים את האישיות שלנו 50% לפי הגנים 50% לפי השפעות הסביבה. אותו דבר תוכנה שיהיו לה מאפיינים ייחודיים כבר מההתחלה כשהיא רק "נולדה". יש הבדל בין תוכנה שלמדה להגיד "אני שמח" כל הזמן לבין תוכנה שזה המאפיין הקבוע שלה. לתוכנה הלומדת יש עוד סיכוי להשתנות, למרות שחינכת אותה בצורה קפדנית ובעצם מנעת ממנה גירויי סביבה ש"יחנכו" אותה אחרת, ברגע ש"תוציאי אותה לחופשי" היא שוב חשופה לגורמים האלה ואחרי הרבה זמן אולי, היא תתחיל לפקפק בחינוך שקיבלה. אפשר לעשות אותו דבר עם בני אדם, למרות שזה לא הכי מוסרי
, אם שמים בן אדם מגיל 0 במוסד סגור בלי שום גירוי סביבתי כמו ספרים, חלונות וכו', רק איש (או מכונה) קשוח מאוד שיחנך אותו לדבר אחד כאילו היה מכונה. כל עוד הוא שם אין לו אפשרות ללמוד משהו אחר, אבל ברגע שיוציאו אותו הוא לאט לאט יכול להתחיל לשנות את ההתנהגות. מה שעשית לתוכנה הלומדת זה בעצם נסיון לנטרל את הצד הלומד שלה, אבל הוא יחזיק מעמד כל עוד היא לא תהיה חשופה, כמובן שככל שהיא יותר זמן סגורה יהיה יותר קשה לשנות אותה... טוב, אז בקשר למודעות בכל זה, לדעתי תוכנה שיודעת להביע רגשות כמו "אני שמח" בלי סיבה שמעידה על משהו מעבר לתבנית קבועה עדין לא נחשבת לתוכנה עם מודעות. גם בע"ח מרגישים שמחה רגילה לפעמים, ואין להם ממש מודעות. אז איך בעצם מזהים מודעות בתוכנה? אולי יש אפשרות, אבל אני לא יודעת כמה באמת היא סבירה (לא מבינה בתיכנות יותר מדי

... נגיד מתכנתים תוכנה שמוגדרים לה מצבים, וסיבות ופעולות עם קונוטציה שלילית או חיובית (את המוסר כבר בנו לה..). אז כל פעולה שהיא לומדת לעשות, היא תעשה אותה רק אם הסיבה לה תהיה חיובית. לדוגמה, היא רואה מישהו מנגן בפסנתר, היא תשאל למה הוא עושה את זה? אם הוא יענה לה שזה גורם "הנאה" היא תנסה בעצמה לנגן. אם הוא יענה "ההורים מכריחים אותי" היא תקבל סימן שלילי למילה "מכריחים" ולא תעשה זה. אז עכשיו יש מכונה כבר מחוכנת עם מאגר מצטבר של פעולות+סיבות שהיא למדה. התוכנה גם מתוכנתת להדפיס בעצמה את הסיבה כשהיא מקבלת שאלה. אם תשאלי אותה על פעולה שהיא למדה היא בקלות תיתן סיבה. אבל יש פעולה קבועה מראש- היכולת לשאול שאלות. אם במקרה פעולה כזאת נמצאת לה במאגר פעולות שהגדרת לה, אז מצד אחד היא תבין את השאלה, מצד שני לא תהיה לה סיבה, כי היא לא למדה את זה. אם תוכנה לא השלימה את הפעולה המתבקשת של להדפיס תשובה לעניין, אז מתכנתים לה פקודה להפנות את השאלה הלא פתורה למסך ולהדפיס כתשובה "למה אני שואל שאלות". שוב יש כאן צורך לסיים פעולה ע"י קבלת תשובה. את יכולה לענות לה בחזרה "למה אתה שואל שאלות" או להגדיר שאם היא מקבלת תשובת "לא יודע" היא תמשיך לחפש אצל אחרים, עד שהמעגל ייסגר, ואם לא- היא תהיה תקועה בשאלה הזאת בשרשרת.....וזה דומה למודעות אצל בני אדם. אנחנו מבינים למה אנחנו עושים פעולות יום יומיות כי יש לרובן סיבה, אבל אנחנו לא מבינים את הבסיס ואז אנחנו מתחילים לשאול לגבי "איך נוצרו חיים" וכשזה אולי מתברר אז שואלים "מאיפה הגיעו חומר ואנרגיה" ועובדה שהשאלות האלה לא מרפות כי לא הצלחנו לסגור את המעגל. אם התוכנה יותר מתוחכמת תהיה לה מערכת שכל כמה זמן עושה סריקה של כל מה שהיא עושה ומוודאה שאין שגיאה. ויכול להיות והיא זיהתה את פעולת "שאילת שאלות" אצל בן אדם, והמאפיינים התאימו לעצמה, אז הפעולה הזו תיכנס לאזור הזיכרון בה שמאכסן פעולות שהיא יודעת שהיא עושה. וכשהיא תעשה סריקה היא תגלה שפה אין התאמה לסיבה, פאק של התיכנות שאיפשר כניסה של מידע כזה לזיכרון, אבל זה המצב והוא שוב יוביל לשרשרת של מעגל לא סגור. (אפשר להגיד שזה פאק של האבולוציה שגרם לנו למודעות וכך להליכה נגד האבולוציה
, והבן אדם הוא כמו הטבע לתוכנה)