1. مقدمه

ظهور مدل‌های زبانی بزرگ (LLMs) نظیر GPT-4 و LLaMA 3، تحولی بنیادین در نحوه‌ی پردازش و تولید زبان طبیعی در سامانه‌های هوشمند پدید آورده است. این مدل‌ها با بهره‌گیری از معماری ترنسفورمر و Next Token Prediction ، توانسته‌اند سطح بی‌سابقه‌ای از روایی، انسجام و درک معنایی را در تولید زبان ارائه دهند. با این حال، اتکای کامل به داده‌های ایستا و عدم توانایی در تعامل پویا با اطلاعات یا محیط، کارایی این مدل‌ها را در سناریوهای پیچیده محدود کرده است (Singh et al., 2025).

برای رفع این محدودیت‌ها، معماری Retrieval-augmented generation یا RAG ، که یک رویکرد پیشرفته و نوآورانه در حوزه‌ی پردازش زبان طبیعی (NLP) است؛ توسعه یافت که با ترکیب مدل‌های زبانی با External Knowledge Retrieval Systems ، امکان پاسخ‌دهی دقیق‌تر و به‌روزتر را فراهم می‌سازد (Li & Jia, 2025). با وجود این پیشرفت، سیستم‌های RAG نیز در مدیریت وظایف چندمرحله‌ای، استدلال سطح بالا و تعامل با محیط‌های واقعی محدودیت‌هایی دارند. به‌دنبال این چالش‌ها، معماری‌های «عامل‌محور» (AI Agents) و به‌طور گسترده‌تر، «هوش عامل‌محور» (Agentic AI) پدید آمده‌اند که با تلفیق استدلال، برنامه‌ریزی، حافظه پایدار و همکاری چندعامله، گامی به سوی خودمختاری واقعی در سامانه‌های هوشمند برداشته‌اند (Sapkota & Roumeliotis, 2025).

از سوی دیگر، مطالعات تجربی نیز نشان داده‌اند که ترکیب LLMها با RAG و Agentic AI، نه تنها دقت پاسخ‌گویی را به‌طور چشم‌گیری افزایش می‌دهد، بلکه قابلیت‌هایی چون تصمیم‌گیری بلادرنگ، برنامه‌ریزی پویا و انطباق با داده‌های پیچیده را نیز فراهم می‌سازد. برای مثال، استفاده از Agentic RAG در سامانه‌های پزشکی توانست نرخ دقت پاسخ‌گویی را تا ۹۵٪ ارتقا دهد، در مقایسه با کمتر از ۶۰٪ در مدل‌های LLM استاندارد (Woo et al., 2024).

در چنین چشم‌اندازی، فهم دقیق تفاوت‌های مفهومی، معماری و کاربردی میان LLM، RAG، AI Agent و Agentic AI، ضرورتی انکارناپذیر برای پژوهشگران و طراحان سامانه‌های هوش مصنوعی محسوب می‌شود. مقاله حاضر، با تمرکز بر تحلیل فنی و تطبیقی این چهار رویکرد، تلاش دارد چارچوبی دقیق برای انتخاب معماری مناسب در مواجهه با مسائل مختلف در هوش مصنوعی معاصر ارائه دهد.

2. تعاریف مفهومی و معماری‌های فنی

2.1 مدل‌های زبانی بزرگ Large Language Models (LLMs)
مدل‌های زبانی بزرگ (LLMs) به‌عنوان نقطه‌ی آغاز پیشرفت‌های مدرن در حوزه هوش مصنوعی مولد شناخته می‌شوند. این مدل‌ها شبکه‌های عصبی عمیقی هستند که با تکیه بر معماری ترنسفورمر آموزش دیده‌اند و توانایی درک و تولید زبان طبیعی را دارا می‌باشند. فرایند یادگیری آن‌ها مبتنی بر Next Token Prediction پیش‌بینی توکن بعدی است؛ به این معنا که مدل تلاش می‌کند با توجه به توکن‌های قبلی، محتمل‌ترین توکن بعدی را در یک توالی زبانی پیش‌بینی کند.

در سطح فنی، ورودی به مدل به‌صورت دنباله‌ای از توکن‌ها (کوچک‌ترین واحد زبانی) پردازش می‌شود و مدل از طریق لایه‌های attention و normalization، احتمالات توکن‌های بعدی را محاسبه می‌کند. این قابلیت باعث می‌شود LLMها بتوانند متن تولید کنند، خلاصه بنویسند، ترجمه انجام دهند و حتی در برخی موارد استدلال زبانی انجام دهند. (Singh et al., 2025)

با این حال، این مدل‌ها دارای محدودیت‌هایی جدی نیز هستند: نداشتن حافظه بلندمدت، دانش ایستا (مربوط به زمان آموزش) و ناتوانی در تعامل با محیط یا ابزارهای خارجی از جمله چالش‌های اصلی LLMهاست.

کاربردها:

  • چت‌بات‌ها (مانند ChatGPT)
  • تولید محتوا (متن، ایمیل، توصیف محصول)
  • تکمیل خودکار کد و متن
  • پرسش و پاسخ ساده

2.2 تولید تقویت‌شده با بازیابی Retrieval-Augmented Generation (RAG)
معماری RAG با هدف رفع محدودیت‌های LLMها طراحی شد. در این روش، مدل زبانی به‌صورت مستقیم به دانش خارجی متصل می‌شود؛ به‌عبارت دیگر، پیش از تولید پاسخ، سیستم ابتدا اطلاعاتی مرتبط از یک پایگاه دانش بیرونی (مثل بانک اسناد، پایگاه داده یا ویکی‌پدیا) بازیابی کرده و سپس آن‌ها را در prompt مدل قرار می‌دهد تا پاسخ نهایی دقیق‌تر و به‌روزتر باشد.

معماری RAG معمولاً از سه مؤلفه اصلی تشکیل شده است: ماژول پردازش پرسش و ساخت embedding، ماژول بازیابی اطلاعات از پایگاه دانش (Retriever) و مدل زبانی که اطلاعات بازیابی‌شده را برای تولید پاسخ به‌کار می‌گیرد. این ساختار، مزایایی همچون به‌روزرسانی سریع اطلاعات بدون نیاز به بازآموزی مدل و کاهش توهم زبانی (hallucination) را به همراه دارد. (Li & Jia, 2025) , (Cerqueira et al., 2024)

کاربردها:

  • سیستم‌های پاسخ‌گویی مبتنی بر اسناد
  • جستجوی هوشمند در پایگاه‌های دانشی
  • سامانه‌های پرسش و پاسخ در پزشکی، حقوق، آموزش
  • چت‌بات‌های متصل به داده‌های داخلی سازمان

2.3 عامل‌های هوش مصنوعی AI Agents

عامل‌های هوش مصنوعی، مرحله‌ای تکاملی در معماری‌های مولد محسوب می‌شوند. برخلاف LLMهای ساده که فقط متن تولید می‌کنند، عامل‌ها موجودیت‌هایی هستند که می‌توانند برنامه‌ریزی کنند، ابزارها را فراخوانی کنند، از محیط یاد بگیرند، تصمیم بگیرند و اقدام کنند. آن‌ها معمولاً از یک LLM به‌عنوان مغز مرکزی استفاده می‌کنند، ولی اجزای دیگری مانند:

  • حافظه ماندگار (memory stores)
  • ابزارهای اکسترنال (API، مرورگر، ماشین حساب و...)
  • ماژول استدلال (reasoning & planning)

را نیز در خود دارند.

معماری‌های مبتنی بر ReAct و AutoGPT نمونه‌هایی از AI Agentها هستند که با حلقه‌های استدلال، اقدام، مشاهده و اصلاح، فرایند حل مسئله را طی می‌کنند. این عامل‌ها می‌توانند وظایف چندمرحله‌ای را به صورت نیمه‌خودکار یا تمام‌خودکار انجام دهند.(Sapkota & Roumeliotis, 2025) , (Woo et al., 2024)

کاربردها:

  • دستیارهای شخصی یا سازمانی پیشرفته
  • تحلیل داده با استفاده از ابزارهای مختلف
  • اتوماسیون وظایف در نرم‌افزارها یا محیط‌های عملیاتی
  • پاسخ‌دهی به سؤالات چندمرحله‌ای یا استنتاجی

2.4 هوش عامل‌محور Agentic AI

Agentic AI یک گام فراتر از AI Agent است و نشان‌دهنده حرکت به‌سوی سیستم‌هایی با چند عامل مستقل، همکاری‌محور و کاملاً خودمختار است. در این رویکرد، چندین عامل تخصصی به‌صورت هم‌زمان و هماهنگ فعالیت می‌کنند؛ هر کدام نقش مجزایی دارند (مثلاً برنامه‌ریز، تحلیل‌گر، مجری) و از طریق لایه‌های ارکستراسیون (Orchestration Layers) با یکدیگر تعامل دارند.

Agentic AI نه‌تنها از حافظه و ابزار بهره می‌برد، بلکه می‌تواند وظایف را تجزیه کند (Task Decomposition)، بر اساس بازخورد محیط عمل خود را تنظیم کند و تصمیم‌گیری مشارکتی انجام دهد. این رویکرد بیشتر شبیه به ساختار سازمان‌های انسانی یا سیستم‌های پیچیده است تا یک مدل منفرد. (Singh et al., 2025) , (Ge et al., 2023)

کاربردها:

  • مدیریت پروژه‌های پیچیده
  • ربات‌های همکاری‌محور
  • سیستم‌های تصمیم‌یار در پزشکی و مهندسی
  • مدل‌سازی شبیه‌سازی‌های انسانی یا اجتماعی

3. مقایسه تطبیقی معماری‌ها (LLM، RAG، AI Agent، Agentic AI)

در این بخش، هدف ما تحلیل و مقایسه این چهار معماری بر اساس ابعاد کلیدی عملکردی و فنی است. این ابعاد از دیدگاه کاربردی، طراحی سیستم و سطح پیشرفت در خودمختاری و تعامل انتخاب شده‌اند.

3.1 جدول مقایسه تطبیقی

معیار / معماری
LLM
RAG
AI Agent
Agentic AI
منبع دانش
مدل داخلی (ثابت)
بازیابی بیرونی
ترکیبی + ابزار
چندمنبعی + چندعامل
نوع تعامل با اطلاعات
بدون تعامل (ایستا)
جستجوی بیرونی
تعامل با ابزار
تعامل با محیط، داده و عامل‌ها
توان استدلال و برنامه‌ریزی
محدود و ضمنی
متوسط
پیشرفته
پیشرفته و چندعاملی
حافظه بلندمدت و یادگیری پویا
ندارد
ندارد
دارد (تجربی)
دارد (ساختاریافته)
خودمختاری در عمل
ندارد
ندارد
نیمه‌خودمختار
تمام‌خودمختار و هماهنگ
نوع خروجی‌ها
متن ساده
متن با استناد
متن + عمل
تصمیم، همکاری، اجرا
کاربردهای رایج
چت‌بات، تولید متن
جستجو، پرسش و پاسخ
اتوماسیون، تحلیل داده
پروژه‌های پیچیده، سیستم‌های چندعاملی
نقاط قوت اصلی
سادگی، سرعت
دقت بالا، به‌روز بودن
انعطاف، تعامل
همکاری، مقیاس‌پذیری، تطبیق
محدودیت‌ها
دانش ایستا، فاقد ابزار
وابسته به کیفیت داده
نیاز به طراحی هدفمند
پیچیدگی در کنترل و هماهنگی
نمونه‌ها و چارچوب‌ها
GPT-4، LLaMA
RAG، Graph-RAG
AutoGPT، ReAct
Generative Agents، AIOS   

3.2 تحلیل تفسیری

مدل‌های زبانی بزرگ (LLMها) با عملکرد قابل‌قبول در وظایف تولید زبان، اساس بسیاری از سامانه‌های هوشمند را تشکیل می‌دهند. با این حال، در پاسخ‌گویی به پرسش‌های خاص یا به‌روز، عملکرد آن‌ها به دلیل دانش ایستا دچار ضعف می‌شود. ترکیب آن‌ها با بازیابی اطلاعات در ساختار RAG توانسته این ضعف را تا حد زیادی جبران کند و دقت پاسخ‌ها را افزایش دهد.

با ورود به سطح AI Agentها، ما با سیستم‌هایی مواجه می‌شویم که فراتر از پاسخ‌دهی، به اجرا و تعامل عملی با محیط (نظیر مرور صفحات وب یا تحلیل داده‌ها) نیز قادر هستند. در این مرحله، سیستم‌ها می‌توانند در یک چرخه reasoning-act-observe فعالیت کنند و از ابزارهای مختلف بهره‌ ببرند.

در بالاترین سطح بلوغ، Agentic AI با بهره‌گیری از معماری چندعاملی، توانایی توزیع وظایف، همکاری میان عامل‌ها، حافظه پایدار و تصمیم‌گیری مشترک را فراهم می‌سازد. این سیستم‌ها با الهام از ساختارهای انسانی و سازمانی، به‌صورت تعاملی وظایف پیچیده را مدیریت می‌کنند و پایه‌ای برای هوش مصنوعی سازمان‌یافته آینده محسوب می‌شوند. (Singh et al., 2025) , (Sapkota & Roumeliotis, 2025) , (Li & Jia, 2025) , (Ge et al., 2023)

4. بحث و تحلیل (Discussion)

در این بخش، هدف ما فراتر رفتن از مقایسه آماری است؛ هدف فهم:

  • روابط بین این چهار معماری ؟
  • مسیر تحول آنها ؟
  • کاربرد هر یک را در بافت مسائل واقعی ؟
  • و در نهایت، ترسیم مسیر آینده !

4.1  از تولید صرف تا تعامل عامل‌محور: مسیر تکامل معماری‌ها

تحول از LLM به Agentic AI را می‌توان نوعی حرکت از زبان به کنش (from language to action) تلقی کرد. در ابتدا، LLMها صرفاً مولد متن بودند؛ اما نیاز به اطلاعات به‌روز، پاسخ‌های مبتنی بر منطق و انجام وظایف ترکیبی باعث شد که ابتدا RAG و سپس عامل‌های هوشمند توسعه یابند. Agentic AI نیز در پاسخ به چالش‌هایی همچون مقیاس‌پذیری عملکرد، توزیع وظایف و تعامل چندعامله به وجود آمد.

این تکامل نشان می‌دهد که معماری‌های هوش مصنوعی در حال فاصله گرفتن از ساختارهای ایستا و خطی و نزدیک شدن به سیستم‌های پویا، تطبیق‌پذیر و چندلایه هستند (Singh et al., 2025).

4.2 مزایای نسبی و محدودیت‌های ساختاری

در حالی‌که LLMها به‌واسطه‌ی سادگی و سرعت، انتخابی مناسب برای وظایف سبک مانند تولید محتوا یا مکالمه ساده هستند، RAG مزیت قابل‌توجهی در کار با دانش بیرونی دارد. در مقابل، AI Agentها به‌خوبی در مسائل چندمرحله‌ای و برنامه‌ریزی عمل می‌کنند، ولی به تنظیم دقیق، نظارت و طراحی منطقی وابسته‌اند. Agentic AI نیز با وجود توانمندی بالا در توزیع و هماهنگی عامل‌ها، با چالش‌هایی مانند پیچیدگی در طراحی، هزینه‌های محاسباتی و نیاز به ارکستراسیون دقیق مواجه است (Sapkota & Roumeliotis, 2025).

4.3 انتخاب معماری متناسب با نوع مسئله

یک نتیجه کلیدی در این مطالعه آن است که هیچ معماری «برتر» مطلق وجود ندارد، بلکه بسته به نیاز مسئله، یکی از این چهار رویکرد مناسب‌تر است:

  • برای پاسخ‌های دانشی مبتنی بر اسناد: RAG
  • برای وظایف زنجیره‌ای با نیاز به ابزار: AI Agent
  • برای وظایف مشارکتی و چندمرحله‌ای بزرگ‌مقیاس: Agentic AI
  • و برای وظایف سبک زبانی: LLM

این تحلیل انتخاب معماری را از یک تصمیم فنی صرف، به یک تصمیم طراحی راهبردی تبدیل می‌کند.

4.4 آینده: همگرایی، پویایی و شخصی‌سازی

مسیر آینده هوش مصنوعی مولد به سمت همگرایی این معماری‌ها پیش می‌رود. پژوهش‌های جدید نشان می‌دهند که تلفیق RAG با Agentic AI (مثلاً در قالب Agentic-RAG) می‌تواند هم دقت اطلاعات را حفظ کند و هم توانایی reasoning، همکاری و تعامل با محیط را افزایش دهد (Li & Jia, 2025). همچنین، استفاده از LLMها به‌عنوان «سیستم عامل هوشمند» (AIOS) که عامل‌ها روی آن اجرا شوند، الگویی در حال ظهور است (Ge et al., 2023).

در این چشم‌انداز، هوش مصنوعی به‌جای یک سامانه بسته، به یک اکوسیستم باز و قابل تعامل تبدیل می‌شود که می‌تواند با انسان، داده و عامل‌های دیگر ارتباط برقرار کرده و تصمیم‌سازی انجام دهد.

5. نتیجه‌گیری (Conclusion)

تحلیل تطبیقی ارائه‌شده در این مقاله نشان داد که چهار معماری اصلی در حوزه هوش مصنوعی مولد  شامل مدل‌های زبانی بزرگ (LLMs)، تولید تقویت‌شده با بازیابی (RAG)، عامل‌های هوش مصنوعی (AI Agents) و سیستم‌های عامل‌محور (Agentic AI)  نه تنها از نظر ساختاری، بلکه از حیث فلسفه طراحی، دامنه کاربرد و سطح خودمختاری نیز تفاوت‌های بنیادینی دارند.

مدل‌های زبانی به‌عنوان پایه‌ای‌ترین لایه در این سلسله، برای وظایف زبانی ساده و عمومی مناسب‌اند، در حالی که RAG این مدل‌ها را به دانش زنده و به‌روز متصل می‌سازد. عامل‌های هوش مصنوعی با افزودن ابزار، حافظه و استدلال، زمینه را برای اقدام هدفمند فراهم می‌کنند و در نهایت، سیستم‌های عامل‌محور با ایجاد اکوسیستم‌های چندعامله، امکان تعامل و همکاری میان موجودیت‌های هوشمند را مهیا می‌سازند.

یافته‌های این پژوهش نشان می‌دهد که انتخاب مناسب میان این معماری‌ها، نه صرفاً یک تصمیم مهندسی، بلکه تصمیمی راهبردی و کاربردمحور است که باید بر اساس ویژگی‌های مسئله، نیاز به تعامل، سطح پیچیدگی و پویایی محیط اتخاذ شود.

در چشم‌انداز آینده، ما شاهد همگرایی و ترکیب تدریجی این معماری‌ها خواهیم بود؛ ساختارهایی مانند Agentic RAG، OS-Agent Ecosystems و Personalized Multi-Agent Systems به‌طور فزاینده‌ای توسعه می‌یابند که تلفیقی از دانش، استدلال، تعامل و همکاری را در یک چارچوب یکپارچه فراهم می‌سازند. این روند نشان می‌دهد که هوش مصنوعی از سطح تولید متن فراتر رفته و به سوی کنشگری تطبیقی و تصمیم‌سازی تعاملی در حرکت است  مسیری که مستلزم پژوهش‌های عمیق‌تر در طراحی معماری، اخلاق، حافظه و تعامل انسانی‌ماشینی خواهد بود.

مهدی عرب‌زاده یکتا

شهریور 1404