دنیای AI از بالا — یه نقشه کلی

قسمت ۱ ۲۰ دقیقه

تا حالا شده یه چیزی رو بخوای یاد بگیری، ولی هر جا که سر می‌زنی یه اصطلاح جدید بهت پرتاب کنن؟ AI، Machine Learning، Deep Learning، Neural Network، LLM… انگار هر کدوم از اینا یه دنیای جداست. ولی نیست.

تو این قسمت قراره از بالا به کل دنیای هوش مصنوعی نگاه کنیم. مثل وقتی که قبل از شروع یه پروژه بزرگ، اول یه نقشه کلی می‌کشی. هدف اینه که بعد از خوندن این قسمت، هر وقت یه اصطلاح AI شنیدی، بدونی کجای نقشه قرار می‌گیره.

AI، ML، DL، LLM — اینا چه ربطی به هم دارن؟

بذار با یه تشبیه شروع کنم. فرض کن یه سری جعبه داری که هر کدوم توی اون یکی قرار می‌گیره — مثل عروسک‌های ماتریوشکای روسی.

بزرگ‌ترین جعبه Artificial Intelligence (هوش مصنوعی) هست. این مفهوم خیلی کلیه. هر سیستمی که یه رفتار «هوشمند» از خودش نشون بده، زیر چتر AI قرار می‌گیره. حتی یه if/else ساده که تو یه بازی کامپیوتری دشمن رو کنترل می‌کنه، از نظر فنی یه نوع AI حساب می‌شه.

توی این جعبه بزرگ، یه جعبه کوچک‌تر هست به اسم Machine Learning (یادگیری ماشین). فرقش اینه که به جای اینکه تو قوانین رو بنویسی، به سیستم داده می‌دی و اون خودش قوانین رو کشف می‌کنه. مثلاً به جای اینکه بگی «اگه ایمیل کلمه lottery داشت، اسپمه»، هزار تا ایمیل اسپم و هزار تا ایمیل معمولی بهش نشون می‌دی و خودش یاد می‌گیره الگو رو تشخیص بده.

توی جعبه ML، یه جعبه دیگه هست: Deep Learning (یادگیری عمیق). این روش از شبکه‌های عصبی مصنوعی — یا همون Neural Networks — استفاده می‌کنه. کلمه «عمیق» به تعداد لایه‌های این شبکه‌ها اشاره داره. هرچی لایه‌ها بیشتر باشن، شبکه «عمیق‌تر» هست و می‌تونه الگوهای پیچیده‌تری رو یاد بگیره.

و بالاخره، توی دل Deep Learning، به Large Language Model (مدل زبانی بزرگ، یا به اختصار LLM) می‌رسیم. اینا شبکه‌های عصبی فوق‌العاده بزرگی هستن که روی حجم عظیمی از متن آموزش دیدن و می‌تونن زبان انسان رو بفهمن و تولید کنن.

نکته
وقتی کسی می‌گه «AI»، معمولاً منظورش Machine Learning یا حتی خاص‌تر، LLM هست. ولی از نظر فنی، AI خیلی گسترده‌تر از اینهاست.

پس رابطه‌شون اینه:

AI (هوش مصنوعی)
  └── Machine Learning (یادگیری ماشین)
        └── Deep Learning (یادگیری عمیق)
              └── LLM (مدل زبانی بزرگ)

سه روش یادگیری ماشین — ساده و بی‌درد

حالا که فهمیدیم Machine Learning چیه، بیا ببینیم ماشین چطوری «یاد می‌گیره». سه روش اصلی هست.

۱. Supervised Learning (یادگیری نظارت‌شده)

فرض کن داری به یه بچه یاد می‌دی حیوونا رو بشناسه. بهش عکس نشون می‌دی و می‌گی «این گربه‌ست»، «این سگه»، «این پرنده‌ست». بعد از کلی نشون دادن، بچه خودش می‌تونه حیوون جدیدی رو تشخیص بده.

Supervised Learning دقیقاً همینه. تو داده‌هایی داری که هر کدوم یه «برچسب» یا Label دارن. مدل از روی این داده‌های برچسب‌دار یاد می‌گیره و بعد می‌تونه برای داده‌های جدید پیش‌بینی کنه.

مثال واقعی: فیلتر اسپم ایمیل. هزاران ایمیل که برچسب «اسپم» یا «نرمال» خوردن، به مدل داده می‌شن و مدل یاد می‌گیره ایمیل‌های جدید رو دسته‌بندی کنه.

۲. Unsupervised Learning (یادگیری بدون نظارت)

حالا فرض کن یه سبد پر از میوه داری و به بچه می‌گی «اینا رو دسته‌بندی کن». اسم میوه‌ها رو نمی‌گی. بچه خودش بر اساس رنگ، اندازه و شکل، میوه‌ها رو گروه‌بندی می‌کنه.

تو Unsupervised Learning، داده‌ها برچسب ندارن. مدل باید خودش الگوها و گروه‌بندی‌ها رو پیدا کنه.

مثال واقعی: دسته‌بندی مشتری‌ها. یه فروشگاه آنلاین داده‌های خرید مشتری‌هاش رو به مدل می‌ده و مدل خودش مشتری‌ها رو به گروه‌هایی مثل «خریداران حراج»، «مشتری‌های وفادار» و «خریداران تکی» تقسیم می‌کنه.

۳. Reinforcement Learning (یادگیری تقویتی)

این یکی جالبه. فرض کن یه سگ داری تربیت می‌کنی. وقتی کار درست انجام می‌ده بهش تشویقی می‌دی، وقتی اشتباه می‌کنه تشویقی نمی‌گیره. سگ با آزمون و خطا یاد می‌گیره کدوم کارها تشویقی دارن.

Reinforcement Learning همینطوریه. یه Agent (عامل) تو یه محیط قرار می‌گیره، تصمیم می‌گیره، و بر اساس نتیجه تصمیمش «پاداش» یا «جریمه» دریافت می‌کنه. با تکرار، یاد می‌گیره بهترین تصمیم‌ها رو بگیره.

مثال واقعی: بازی شطرنج. AlphaZero از گوگل با بازی کردن میلیون‌ها بازی شطرنج با خودش، از صفر به سطح فوق‌بشری رسید — بدون اینکه حتی یه کتاب شطرنج خونده باشه.

نکته
LLM‌هایی مثل ChatGPT از ترکیبی از این روش‌ها استفاده می‌کنن. اول با Unsupervised Learning روی حجم عظیمی از متن آموزش می‌بینن، بعد با Supervised Learning روی مکالمات انسانی تنظیم می‌شن، و در نهایت با Reinforcement Learning از بازخورد انسان (RLHF) بهتر می‌شن.

چرا الان همه حرف LLM می‌زنن؟

یه سؤال خوب: Machine Learning سال‌هاست وجود داره. Deep Learning هم از ۲۰۱۲ به بعد خیلی پیشرفت کرد. پس چرا الان، یهویی همه دارن از AI حرف می‌زنن؟

جواب ساده‌ست: چون LLM‌ها زبان آدمیزاد بلدن.

قبل از LLM‌ها، برای استفاده از AI باید برنامه‌نویس یا دانشمند داده می‌بودی. باید API خاصی رو صدا می‌زدی، داده رو به فرمت خاصی تبدیل می‌کردی، و خروجی رو تفسیر می‌کردی.

ولی LLM‌ها یه Interface (رابط) بهت می‌دن که هر آدمی باهاش آشناست: زبان طبیعی. تو فارسی یا انگلیسی باهاش حرف می‌زنی و جواب می‌گیری. این یعنی برای اولین بار تو تاریخ، AI برای همه قابل استفاده شده — نه فقط متخصصا.

سه تا عامل کلیدی باعث انقلاب LLM‌ها شد:

  1. معماری Transformer — سال ۲۰۱۷ گوگل یه مقاله منتشر کرد با عنوان “Attention Is All You Need” که معماری Transformer رو معرفی کرد. این معماری نشون داد که برای فهم زبان، نیازی به پردازش کلمه‌به‌کلمه نیست — می‌شه همه کلمات رو همزمان بررسی کرد.
  2. داده عظیم — اینترنت تریلیون‌ها کلمه متن تولید کرده. کتاب، مقاله، فروم، ویکی‌پدیا، کد، مکالمه… همه اینا خوراک آموزش LLM‌ها شدن.
  3. قدرت محاسباتی — GPU‌های مدرن امکان آموزش مدل‌هایی با میلیاردها پارامتر رو فراهم کردن. بدون این سخت‌افزار، ساخت LLM ممکن نبود.

یه مزیت مخفی که داری و نمی‌دونی

شاید فکر کنی «من برنامه‌نویس وبم، سال‌ها PHP یا JavaScript کار کردم، چه ربطی به AI دارم؟» ولی واقعیت اینه که تو یه مزیت بزرگ داری نسبت به کسی که از صفر شروع می‌کنه.

اسمش Systems Thinking (تفکر سیستمی) هست.

تو به عنوان یه توسعه‌دهنده با تجربه، عادت داری به مسائل سیستمی فکر کنی. می‌دونی یه ورودی چطور پردازش می‌شه و خروجی تولید می‌کنه. می‌دونی debugging یعنی چی. می‌دونی چطور یه مشکل بزرگ رو به قطعات کوچیک‌تر بشکنی.

اینا دقیقاً مهارت‌هایی هست که برای کار با AI لازمه:

  • فهم Input/Output — تو عادت داری با API کار کنی. LLM هم در نهایت یه API هست: متن می‌ره تو، متن میاد بیرون.
  • فهم Pipeline — می‌دونی چطور داده از یه مرحله به مرحله بعد جریان پیدا می‌کنه. خطوط پردازش AI (Data Pipeline) هم همینطوریه.
  • Debugging — وقتی خروجی LLM خوب نیست، باید بتونی بفهمی مشکل کجاست. Prompt بد بوده؟ داده ورودی مشکل داشته؟ مدل مناسب نبوده؟ این همون ذهنیت debugging هست که سال‌ها باهاش کار کردی.
  • معماری نرم‌افزار — می‌دونی چطور سیستم‌های بزرگ رو طراحی کنی. برای ساخت اپلیکیشن‌های AI محور، دقیقاً همین مهارت لازمه.
  • فهم Trade-off — تو دنیای وب یاد گرفتی که همیشه باید بین سرعت، هزینه و کیفیت تعادل ایجاد کنی. تو دنیای AI هم دقیقاً همینه — فقط متغیرها فرق می‌کنن.
نکته مهم
لازم نیست ریاضیات سطح دکترا بلد باشی. اکثر توسعه‌دهنده‌هایی که الان با AI کار می‌کنن، از ابزارها و کتابخونه‌های آماده استفاده می‌کنن. مهم‌ترین چیز فهم مفاهیم هست، نه حفظ فرمول‌ها.

واژه‌نامه — اصطلاحاتی که باید بدونی

قبل از اینکه بریم سراغ قسمت‌های بعدی، بذار یه سری اصطلاح کلیدی رو مرور کنیم. اینا رو لازم نیست حفظ کنی — فقط یه بار بخونشون تا وقتی بعداً بهشون برخوردی، آشنا باشن.

  • Model (مدل) — نتیجه آموزش یه الگوریتم ML روی داده. مثل مغز یه سیستم AI که اطلاعات یاد گرفته‌شو توش ذخیره کرده.
  • Parameter (پارامتر) — اعدادی که مدل در طول آموزش یاد می‌گیره. هرچی پارامتر بیشتر، مدل بزرگ‌تر و (معمولاً) قوی‌تر. GPT-4 چیزی حدود ۱.۸ تریلیون پارامتر داره.
  • Training (آموزش) — فرآیند یاد دادن به مدل. داده بهش نشون می‌دی و پارامترهاش تنظیم می‌شن.
  • Inference (استنتاج) — وقتی از مدل آموزش‌دیده استفاده می‌کنی. مثلاً وقتی یه سؤال از ChatGPT می‌پرسی، داری Inference انجام می‌دی.
  • Token (توکن) — واحد پردازش متن تو LLM‌ها. تقریباً هر ۴ کاراکتر انگلیسی یه توکن حساب می‌شه. تو قسمت سوم مفصل توضیح می‌دیم.
  • Prompt (پرامپت) — متنی که به LLM می‌دی تا بر اساسش جواب تولید کنه.
  • Fine-tuning (تنظیم دقیق) — وقتی یه مدل از قبل آموزش‌دیده رو روی داده‌های خاص خودت دوباره آموزش می‌دی تا برای کار خاصت بهتر بشه.
  • Embedding (جاسازی) — تبدیل متن (یا هر داده‌ای) به اعداد که کامپیوتر بتونه باهاشون کار کنه. تو قسمت سوم مفصل توضیح می‌دیم.
  • Hallucination (توهم) — وقتی LLM چیزی می‌گه که واقعی نیست ولی با اعتماد به نفس بالا می‌گه. مثل دوستی که اطلاعات غلط رو با قاطعیت تعریف می‌کنه.
  • Context Window (پنجره زمینه) — حداکثر متنی که LLM می‌تونه در یه مکالمه در نظر بگیره. مثل حافظه کوتاه‌مدت.

نقشه راه ما

تو این سری قراره قدم به قدم پیش بریم:

  1. قسمت ۱ (همین قسمت): نقشه کلی دنیای AI
  2. قسمت ۲: سخت‌افزار AI — چرا GPU اینقدر مهمه و چه گزینه‌هایی داری
  3. قسمت ۳: درون یه LLM — Token، Embedding و Transformer
  4. قسمت‌های بعدی: Prompt Engineering، RAG، Fine-tuning، ساخت Agent و پروژه عملی

هر قسمت روی قبلی بنا می‌شه. سعی شده هر مفهومی که استفاده می‌شه، قبلاً توضیح داده شده باشه.

جمع‌بندی

تو این قسمت یاد گرفتیم که:

  • AI یه مفهوم کلیه که ML، DL و LLM زیرمجموعه‌های تو در توی اون هستن
  • سه روش اصلی یادگیری ماشین وجود داره: Supervised، Unsupervised و Reinforcement Learning
  • LLM‌ها به خاطر سه عامل معماری Transformer، داده عظیم و قدرت محاسباتی، انقلابی ایجاد کردن
  • به عنوان یه توسعه‌دهنده با تجربه، مهارت‌های Systems Thinking بهت مزیت بزرگی می‌ده

تو قسمت بعدی می‌ریم سراغ سخت‌افزار. می‌خوایم بفهمیم چرا GPU قهرمان دنیای AI هست، VRAM چرا اینقدر مهمه، و چطور می‌شه بدون خرید سخت‌افزار گرون‌قیمت هم با AI کار کرد. آماده‌ای؟

نظرات

هنوز نظری ثبت نشده. اولین نفر باشید!

نظر خود را بنویسید