کیم کارداشیان از چت‌جی‌پی‌تی شکست خورد! اعتراف عجیب ستاره آمریکایی: این دوست سمی باعث مردودی در آزمون وکالت شد

کیم کارداشیان، در اعترافی بامزه و در عین حال واقعی، از تجربه‌ی نه‌چندان موفقش با ChatGPT پرده برداشته است. او که مدت‌هاست در مسیر تبدیل شدن به وکیل قدم گذاشته، به‌تازگی گفته چت‌جی‌پی‌تی باعث شده در آزمون وکالت رد شود!

مجله زیبایی و پزشکی درمالیدی
زمان خواندن 8 دقیقه

کیم کارداشیان ۴۵ ساله فاش کرد که چگونه برای قبولی در آزمون سخت وکالت، به هوش مصنوعی پناه برد، اما این ابزار خیانتکار، با اطلاعات غلط او را به خاک سیاه نشاند و حالا او را یک «دوست سمی» می‌خواند. آیا این پایان رویای وکالت ملکه سلفی‌هاست؟

بله، درست شنیدید: کیم کارداشیانِ میلیاردی، قربانی مشاوره‌های اشتباه هوش مصنوعی شده است.

در دنیای پر زرق و برق سلبریتی‌ها، جایی که هر حرکت زیر ذره‌بین است و هر مصاحبه می‌تواند به یک بمب خبری تبدیل شود، کیم کارداشیان بار دیگر اینترنت را منفجر کرد. اما این بار نه با یک فوتوشوت سکسی، نه با یک محصول جنجالی از برند «SKIMS» و نه با یک رسوایی عاشقانه؛ بلکه با یک اعتراف تکان‌دهنده که شاید «۲۰۲۵-طوری‌ترین» اعتراف سال باشد: او فاش کرد که در امتحانات سخت و نفس‌گیر وکالت، به ChatGPT پناه برده و این هوش مصنوعی، مانند یک «دوست سمی»، بارها او را مردود کرده است!

این افشاگری غافلگیرکننده در یکی از بخش‌های مصاحبه تصویری با مجله «ونتی فر» (Vanity Fair) رخ داد. کیم در حالی که به دستگاه دروغ‌سنج متصل بود، در کنار همکارش «تیانا تیلور»، در مقابل یک سوال به ظاهر ساده قرار گرفت. اما پاسخی که او داد، پرده از یک درام مدرن و بسیار قابل‌لمس درباره رابطه انسان و هوش مصنوعی برداشت.

وقتی چت‌جی‌پی‌تی شد «دوست سمی» کیم کارداشیان

در گفت‌وگویی ویدئویی با مجله‌ی ونیتی‌فِر، کیم که ۴۵ سال دارد، در حالی که با بازیگر و خواننده‌ی آمریکایی، تی‌یانا تیلور، روبه‌رو شده بود، ناگهان از راز کوچک و عجیبی گفت:
«من همیشه از چت‌جی‌پی‌تی برای کمک در درس خوندن استفاده می‌کنم. هر وقت سوالی دارم، عکس می‌گیرم و براش می‌فرستم تا جواب بده… ولی تقریباً همیشه باعث میشه تو امتحان‌ها بیفتم!»

تی‌یانا با خنده پرسید: «یعنی هوش مصنوعی دشمنته؟»
و پاسخ کیم، با همان لبخند معروفش، تیتر روز شد:
«نه، دشمن نیست… یه دوست سمیه!»

کیم ادامه داد: «بدتر از همه اینه که بعد از اینکه اشتباه جواب میده، شروع می‌کنه منو تحلیل روانی کردن! میگه این اشتباه باعث میشه به غریزه‌ات اعتماد کنی، چون تو از اول جواب رو می‌دونستی!»

از آزمون وکالت تا درس بزرگ زندگی

برای مخاطبانی که شاید ندانند، کیم کارداشیان سال‌هاست تلاش می‌کند وکالت را به صورت حرفه‌ای یاد بگیرد. او پس از گذراندن دوره‌های حقوقی و عبور از چند مرحله‌ی سخت آزمون موسوم به Baby Bar در ایالت کالیفرنیا، حالا در مسیر گرفتن مجوز رسمی وکالت است.

این آزمون به‌خصوص در آمریکا یکی از سخت‌ترین آزمون‌های حرفه‌ای جهان محسوب می‌شود: پنج مقاله‌ی تحلیلی، یک آزمون عملکردی ۹۰ دقیقه‌ای و ۲۰۰ تست چندگزینه‌ای.
کیم برای آماده شدن از تمام ابزارهای ممکن استفاده کرده — از کلاس خصوصی گرفته تا نرم‌افزارهای کمک‌درسی — اما ظاهراً ChatGPT نه‌تنها کمکی نکرده، بلکه به دردسر تازه‌ای تبدیل شده است.

او با خنده گفت: «وقتی جواب‌های اشتباهش رو می‌بینم، واقعاً عصبانی می‌شم. بعضی وقتا سرش داد می‌زنم! بعدم از عصبانیت اسکرین‌شات می‌گیرم و تو گروه دوستم می‌فرستم که ببینید این ربات با من چطور رفتار می‌کنه!»

هوش مصنوعی یا توهم دانایی؟

این اعتراف، هرچند خنده‌دار، اما به یکی از مهم‌ترین بحث‌های روز دنیا اشاره دارد: اعتماد بیش از حد به هوش مصنوعی.
در دنیایی که ابزارهایی مثل ChatGPT یا Copilot روزبه‌روز هوشمندتر می‌شوند، هنوز خطا، خیال‌پردازی و اشتباه‌های خطرناک بخش جدایی‌ناپذیر آن‌هاست.

کارشناسان فناوری می‌گویند:
«چت‌جی‌پی‌تی می‌تواند اطلاعات را بازآفرینی کند، اما تضمینی ندارد که دقیق، قانونی یا به‌روز باشند. گاهی مثل یک دوست بااعتمادبه‌نفس حرف می‌زند، اما اشتباهاتی فاحش مرتکب می‌شود.»

به همین دلیل است که وقتی کیم کارداشیان از ChatGPT برای پاسخ دادن به سوالات آزمون حقوق استفاده کرده، جواب‌هایی گرفته که از نظر ظاهری درست بوده‌اند، اما از نظر فنی غلط — و نتیجه‌اش، شکست در آزمون!

شوخی تلخ کیم با حقیقتی جدی

کیم در ادامه گفت: «مشکل اینجاست که من واقعاً بهش تکیه کرده بودم. فکر می‌کردم مثل یه دستیار حقوقی دیجیتال عمل می‌کنه. اما حالا می‌فهمم باید بیشتر به خودم اعتماد کنم.»

در همان مصاحبه، دستگاه دروغ‌سنجی که به کیم متصل بود، نشان داد او درباره‌ی همه چیز حقیقت را گفته است.
و همین، ماجرا را از یک شوخی ساده به خبری داغ تبدیل کرد.

کاربران در شبکه‌های اجتماعی به‌سرعت این بخش از مصاحبه را دست‌به‌دست کردند. یکی نوشت:
«اگر حتی کیم کارداشیان هم قربانی پاسخ‌های اشتباه چت‌جی‌پی‌تی بشه، وای به حال ما که دانشجوهای معمولی هستیم!»
دیگری نوشت:
«هوش مصنوعی با همه جذابیتش، هنوز جای مغز انسان رو نمی‌گیره. حتی اگه اون انسان کیم کارداشیان باشه!»

چت‌جی‌پی‌تی؛ دستیار یا فریب‌دهنده؟

هوش مصنوعی در سال ۲۰۲۵ حالا تبدیل به یکی از بحث‌برانگیزترین فناوری‌ها شده است. در حالی که میلیون‌ها نفر از آن برای نوشتن مقاله، طراحی، مشاوره شغلی و حتی رابطه عاشقانه استفاده می‌کنند، بسیاری از متخصصان هشدار داده‌اند که اعتماد مطلق به این فناوری می‌تواند فاجعه‌بار باشد.

در واقع، ChatGPT می‌تواند متنی زیبا و قانع‌کننده تولید کند، اما هنوز درک واقعی از منطق و قانون ندارد.
به همین دلیل، استفاده از آن در آزمون‌های رسمی، پرونده‌های قضایی یا حتی توصیه‌های مالی، همیشه با خطر اشتباه همراه است.

کیم کارداشیان حالا به نمادی از همین تناقض تبدیل شده است: زنی موفق، هوشمند و ثروتمند که می‌خواست از هوش مصنوعی برای پیشرفت استفاده کند، اما در نهایت از آن درس گرفت — درسی که شاید از هر کلاس حقوقی گران‌قیمت ارزشمندتر باشد.

از شکست تا شوخی با زندگی

کیم در پایان گفتگو با طنز خاص خودش گفت:
«فکر کنم باید یه وکیل واقعی استخدام کنم، نه یه ربات! ولی خب، این دوست سمی به من یاد داده که اشتباه کردن هم بخشی از یادگیریه.»

در دنیای پرزرق‌وبرق سلبریتی‌ها، شاید کمتر کسی انتظار داشت هوش مصنوعی به سوژه‌ای انسانی و احساسی تبدیل شود. اما همان‌طور که کیم گفته، «چت‌جی‌پی‌تی مثل یه دوست سمیه که هم بهت کمک می‌کنه و هم گمراهت می‌کنه.»

و شاید همین جمله، بهترین توصیف از رابطه‌ی انسان با فناوری در سال ۲۰۲۵ باشد:
ما عاشقشیم، اما گاهی ازش زخم می‌خوریم.

داستان کیم کارداشیان و چت‌جی‌پی‌تی فقط یک حاشیه سلبریتی نیست؛ بلکه هشداری واقعی است برای همه ما.
در عصر هوش مصنوعی، دانستن مرز بین ابزار و اتکا، بین کمک و وابستگی مهم‌تر از همیشه است.

کیم، با تمام اشتباهاتش، باز هم نشان داده که حتی در شکست، می‌توان درسی برای زندگی پیدا کرد — درسی که شاید هر کسی که امروز از چت‌جی‌پی‌تی برای نوشتن، یادگیری یا تصمیم‌گیری استفاده می‌کند، باید جدی بگیرد:

از هوش مصنوعی کمک بگیر، اما هرگز جای عقل و تجربه‌ات را به آن نده.

امتیاز شما به این مطلب: 
۵

امتیاز شما :

به اشتراک بگذارید
بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *