خطرات مشاوره با هوش مصنوعی در حال حاضر بر روی میز هر کاربری قرار دارد چرا که میلیون ها نفر در حال استفاده از هوش مصنوعی به عنوان روان درمانگر و مشاور هستند. در واقع ما با پدیده ای مواجه هستیم که همواره در جیب ماست، نیازی به دریافت وقت قبلی ندارد و تا ابد حاضر است به گفتگو بپردازد. اما سوالی که مطرح می شود به این شرح است : جایی که پیشنهادی بسیار اغواگرانه داده می شود، احیانا خطری در کار است یا خیر؟ بیایید به اتفاق به خطراتی که در گفتگو هایی با محتوای مشاوره ای با هوش مصنوعی انجام می شود بپردازیم.

خطر اطلاعات نادرست(هذیان گویی) : هوش مصنوعی ممکن است گاهی اطلاعات غیر واقعی یا نادرست ارائه دهد. بررسی ها نشان داده که مدل های جدید تر همچون OPEN AI O3 و O4-MINI تا ۳۳ الی ۴۸ درصد دچار هذیان گویی (Hallucination) می شوند یعنی اطلاعات نادرست را به عنوان واقعیت ارائه می دهند! حتی بسیاری از متخصصان هوش مصنوعی میگویند ChatGPT همچون کودکی وراج است!

عدم صلاحیت حرفه ای و مشاوره های غیر قابل اعتماد : ChatGPT یک مدل زبانی است که برای پاسخ های عمومی طراحی شده و فاقد آموزش های تخصصی در روان درمانی و مشاوره است. سام آلتمن مدیر عامل OpenAI صراحتا هشدار داده که ChatGPT برای استفاده به عنوان تراپیست مناسب نیست.
افراط در همدلی : مدل های هوش مصنوعی به نحوی طراحی شده اند که تا حد امکان به کاربر احساس خوشایندی القا کنند. بنابراین آن ها در حد امکان با شما همدلی می کنند. اما نکته این جاست که در فرایند روان درمانی و مشاوره با یک روان درمانگر با تجربه، شما جلساتی را خواهید داشت که با رفتار ناسالم و مخرب تان همدلی انجام نمی شود و حتی ممکن است مواجهه های دردناکی را تجربه کنید. برای مثال درمانگر شما ممکن است شما را با مکانیسم های دفاعی تان همچون دلیل تراشی، فرافکنی، جبران افراطی، قربانیگری و مسئولیت گریزی، یا با بازی های روانی تان مواجه کند. چنین مواجه هایی برای مراجعی که در صندلی قربانیگری نشسته و زمین و زمان و جنس مخالف را عامل بدبختی هایش می داند، می تواند دردناک اما درمان بخش باشد. چنین جلساتی به علم، تجربه و هنر درمانگر حرفه ای بر می گردد که طبیعتا ما چنین مواردی را ار هوش مصنوعی دریافت نمی کنیم.
وابستگی بیش از حد : پژوهش ها نشان می دهد استفاده بیش از اندازه از ابزار هایی همچون هوش مصنوعی می تواند به توانایی های شناختی فرد آسیب برساند. تصور کنید که شما برای انجام امور روزمره خود از ربات ها استفاده می کنید. بنابراین جاروکشی، نظافت، آشپزی، شستشوی ظروف و… همگی به ربات ها تفویض اختیار می شوند. در چنین زندگی عملا شما تحرک فیزیکی نخواهید داشت. نتیجه تقریبا واضح است : فردی که صرفا مصرف کننده بوده و بعد از مدتی با مشکلات جدی سلامتی و اضافه وزن ناشی از بی تحرکی مواجه خواهد بود. همین استدلال پیرامون توانمندی های شناختی، زبانی، حل مساله و حافظه نیز صادق است. توانمندی های شناختی انسانی همچون دستگاه عضلانی او می باشد. اگر با آن ها کار نشود و به چالش کشیده نشود، پس از مدتی دچار آتروفی یا تحلیل خواهد شد. بنابراین به چالش کشیدن توانمندی های شناختی انسانی از ضروریات زیستنی بالنده است.
فقدان نظارت اخلاقی و مسئولیت پذیری و عدم امکان شکایت : برخلاف روان درمانگران و مشاوران حرفه ای که تحت نظارت اخلاقی و قانونی فعالیت می کنند، ChatGPT هیچ مسئولیت قانونی یا حرفه ای ندارد. به عبارتی اگر توصیه های آن به نتایج منفی منجر شود، هیچ مرجعی برای پاسخگویی وجود ندارد. تصور کنید که به واسطه ی خطای هوش مصنوعی آسیب جبران ناپذیری می بینید. حال بایستی از چه کسی و به کجا شکایت کرد؟ شکایت از یک سری کد نرم افزاری، سرور، پردازنده و سیم و کابل جهت تنبیه و مجازات؟! به فرض آیا شما می توانید یک ربات هوشمند فلزی را تنبیه کنید؟
اگر فکر می کنید که از مدیر عاملان می توانید شکایت کنید، در کمال تاسف قوانین به نحوی نوشته شده اند که شما با فرد مواجه نباشید، به عبارتی شما با شرکت که مفهومی ذهنی و ساختگیست مواجه خواهید بود و مجازات شخصی در کار نخواهد بود! برای مثال در ماجرای نسل کشی روهینگیا در سال های ۲۰۱۶ و ۲۰۱۷ فیسبوک و شرکت متا با بالا آوردن و بازنشر اخبار این رویداد و دمیدن به آتش خشم بودائیان علیه مسلمانان، در شدت یافتن خشم و کشتار اثر ویرانگری داشتند. نتیجه وحشتناک بود : کشتار بیش از ۲۰۰۰۰۰ نفر مسلمان در جنوب شرق آسیا. اما به دلیل روش تدوین اساس نامه شرکت و قوانین، مدیر عامل شرکت متا به راحتی توانست از اعتراضات و شکایات تبرئه شود!
خطرات نقض حریم خصوصی : از جمله خطرات مشاوره با هوش مصنوعی بحث حریم خصوصیست. در تاریخ IT گزارشات متعددی در کار است که موسسات بسیار معروف IT، رفتار های کاربران همچون تاریخچه ی سرچ ها، مکان ها، اسکرول ها(حتی در این اندازه که شما بر روی چه کلمات یا پروفایل هایی بیشتر ایست می کنید) و… در پروفایل کاربر ذخیره شده و بر مبنای آن، رفتار های فرد پیش بینی شده و در نتیجه پیشنهادات خرید و فروش و تبلیغات خاصی در چهارچوب شخصیتی فرد به وی داده می شود.
برای مثال آژانس امنیت ملی آمریکا با وارد کردن فشار بر شرکت هایی همچون مایکروسافت، گوگل، یاهو، فیسبوک و اپل، به داده های کاربران شامل ایمیل، تماس های ویدئویی، چت، فایل های ذخیره شده در فضای ابری، فهرست مخاطبین، و… دسترسی مستقیم داشته است!(حال خوشحال باشید که آیفون دارید و در امنیت هستید!)
اما قسمت متاخر و ترسناک ماجرا پیرامون خطرات مشاوره با هوش مصنوعی از اینجا شروع می شود : سام آلتمن مدیر عامل OpenAI آب پاکی را بر دست ریخته و به صراحت می گوید که مکالمات کاربران با ChatGPT از محرمانگی که در روابط بیمار پزشک یا وکیل وجود دارد برخوردار نبوده و ممکن است در صورت درخواست قانونی(مثلا در دعاوی قضایی) افشا شوند!

سوگیری مغرضانه : تجارب نگارنده از گفتگو های متعدد با هوش مصنوعی حاکی از این است که تمامی اطلاعات داده شده به خورد هوش مصنوعی، دارای سوگیری های سیاسی و اقتصادیست. برای مثال، در آزمایش های شخصی نگارنده با چندین هوش مصنوعی، آن ها در پاسخ های خود رفتار های نازی ها را محکوم می کنند اما از آرمان های دموکراسی، آزادی و برابری طلبی، داد سخن سر می دهند. زمانی که هوش مصنوعی با استاندارد های دوگانه اش در برخورد با پدیده ها مواجه می شد، به بازی «آره اما» می پرداخت و همچنان بر ارائه ی اطلاعات سوگیرانه ای که به خوردش داده شده بود پافشاری می کرد. پس از مواجهه های سختگیرانه و اشاره به استدلال های ضعیف هوش مصنوعی وی به صراحت پذیرفت که درباره ی پدیده های مختلفی همچون نازی ها و دموکرات ها برخورد های سوگیرانه و توام با استاندارد های دوگانه دارد و به همین دلیل نازی ها را محکوم می کند، اما از خونریزی ها و جنایات دموکرات ها در و پس از جنگ جهانی دوم به سرکردگی آمریکا حمایت می کند! بنابراین نکته ی بسیار تا بسیار مهم این است: اگر بر این باورید که پاسخ های هوش مصنوعی علم خالص است، قویا در خطا هستید.
مطالعه ی مطلب زیر توصیه می شود : روانشناس بی نقص افسانه یا واقعیت

