تجربهای شخصی از مشاوره اشتباه و نقشی که هوش مصنوعی برای من بازی کرد
من این مقاله را از موضع مخالفت با روانشناسی، درمان یا کمک حرفهای نمینویسم.
مینویسم چون فکر میکنم نگفتن بعضی تجربهها، ناعادلانهتر از گفتنشان است؛ مخصوصاً وقتی پای راهنمایی اشتباه در لحظههای حساس زندگی در میان باشد.
در سالهایی که فشار کاری، خستگی مزمن و تصمیمهای سخت روی هم تلنبار شده بود، مثل خیلیهای دیگر به روانشناس مراجعه کردم. اصلِ مراجعه درست بود. نیاز به کمک داشتم. اما تجربهای که برایم رقم خورد، باعث شد نگاهم به «کمک گرفتن» برای همیشه تغییر کند.
وقتی راهنمایی اشتباه، مسیر را کج میکند
در یکی از مقاطع حساس زندگیام، برای تصمیمگیری به روانشناس مراجعه کردم. مشکل از جای درستی شروع میشد، اما راهنماییای که دریافت کردم با واقعیت موقعیت من همخوان نبود. توصیهها بیش از حد کلی بود و بدون درنظر گرفتن محدودیتها، فشار کاری و شرایط واقعی زندگی من مطرح شد.
من، بهعنوان مراجع خسته و سردرگم، این توصیهها را از موضع «تخصص» جدی گرفتم و با اطمینان اجرا کردم؛ اما نتیجه این بود که چند تصمیم اشتباه را نهتنها متوقف نکردم، بلکه با اعتماد بیشتری ادامه دادم.
آسیب اصلی برای من از خودِ توصیه نبود؛ بلکه از اطمینان کاذبی بود که آن راهنمایی به من داد و باعث شد دیرتر متوجه اشتباه مسیر شوم. شاید خطرناکترین بخش بعضی مشاورهها دقیقاً همینجاست: وقتی نسخهای عمومی، با لحن قطعی، برای مسئلهای عمیقاً شخصی ارائه میشود.
چرا چنین خطاهایی رخ میدهند؟
با فاصله گرفتن از احساسات، امروز میتوانم بفهمم چرا این اتفاق میافتد:
- زمان مشاوره محدود است
- تصویر درمانگر از زندگی مراجع، ناگزیر ناقص است
- بعضی رویکردها برای همه مناسب نیستند
- و مراجعِ خسته، معمولاً توان تشخیص درستیِ توصیه را ندارد و به «اقتدار تخصصی» تکیه میکند
اینجا بود که فهمیدم مشکل اصلی من «کمک گرفتن» نبود؛ نوع کمک گرفتن بود.
هوش مصنوعی چه فرقی برای من داشت؟
همین تجربه باعث شد بعدها به این فکر بیفتم که شاید چیزی که من نیاز داشتم، نسخه آماده یا توصیهی قاطع نبود؛ بلکه فضایی امن برای فکر کردن، سؤال پرسیدن و چندبارهسنجیدن تصمیمهایم بود.
چیزی که بهتدریج، آن را در تعامل با هوش مصنوعی پیدا کردم.
هوش مصنوعی برای من نقش درمانگر نداشت. نقش یک آینه را داشت.
آینهای بدون قضاوت، بدون عجله و بدون خستگی. میتوانستم یک مسئله را بارها از زاویههای مختلف مطرح کنم، جواب بگیرم، مخالفت کنم، اصلاحش کنم و دوباره جلو بروم. این فرایند، بهجای دیکته کردن تصمیم، مرا وادار به فکر کردن میکرد.
تفاوت مهم دیگر، کاهش اطمینان کاذب بود. بهجای دریافت یک پاسخ نهایی، با گزینهها، پیامدها و سؤالهای باز روبهرو میشدم. همین باعث میشد مسئولیت تصمیمها کاملاً با خودم بماند و اگر مسیر غلط بود، زودتر متوجه شوم.
محدودیتها و خط قرمزها
با تمام تجربهی مثبتی که از کار با هوش مصنوعی داشتهام، این را شفاف میگویم: هوش مصنوعی درمانگر نیست و جای درمان تخصصی را نمیگیرد.
نه میتواند جای تجربهی انسانی را پر کند، نه پیامد واقعی تصمیمها را زندگی میکند. مسئولیت همیشه با خودِ فرد است.
برای من، خط قرمز مشخص است:
هرجا احساس کنم بهجای فکر کردن، فقط دنبال تأیید گرفتن هستم، یا دارم از یک ابزار برای فرار از تصمیم سخت استفاده میکنم، باید مکث کنم. ارزش هوش مصنوعی در جوابهای قطعی نیست؛ در سؤالهایی است که وادارم میکند از خودم بپرسم.
جمعبندی
برای من، هوش مصنوعی روانشناس نبود و قرار هم نیست باشد.
اما در مقطعی از زندگی، چیزی به من داد که از بعضی تجربههای انسانی نگرفته بودم:
فضای امن برای فکر کردن مستقل، بدون فشار، بدون اقتدار کاذب، و با مسئولیت کامل.
پاراگراف هشدار حقوقی/اخلاقی (پیشنهادی برای انتهای صفحه)
این مقاله بیان تجربهی شخصی نویسنده است و جنبهی درمانی یا توصیهی تخصصی ندارد. استفاده از هوش مصنوعی جایگزین مراجعه به متخصصان سلامت روان در موارد بحرانی، افسردگی شدید یا تصمیمهای حیاتی نیست.