تا حالا شده یه چیزی رو بخوای یاد بگیری، ولی هر جا که سر میزنی یه اصطلاح جدید بهت پرتاب کنن؟ AI، Machine Learning، Deep Learning، Neural Network، LLM… انگار هر کدوم از اینا یه دنیای جداست. ولی نیست.
تو این قسمت قراره از بالا به کل دنیای هوش مصنوعی نگاه کنیم. مثل وقتی که قبل از شروع یه پروژه بزرگ، اول یه نقشه کلی میکشی. هدف اینه که بعد از خوندن این قسمت، هر وقت یه اصطلاح AI شنیدی، بدونی کجای نقشه قرار میگیره.
AI، ML، DL، LLM — اینا چه ربطی به هم دارن؟
بذار با یه تشبیه شروع کنم. فرض کن یه سری جعبه داری که هر کدوم توی اون یکی قرار میگیره — مثل عروسکهای ماتریوشکای روسی.
بزرگترین جعبه Artificial Intelligence (هوش مصنوعی) هست. این مفهوم خیلی کلیه. هر سیستمی که یه رفتار «هوشمند» از خودش نشون بده، زیر چتر AI قرار میگیره. حتی یه if/else ساده که تو یه بازی کامپیوتری دشمن رو کنترل میکنه، از نظر فنی یه نوع AI حساب میشه.
توی این جعبه بزرگ، یه جعبه کوچکتر هست به اسم Machine Learning (یادگیری ماشین). فرقش اینه که به جای اینکه تو قوانین رو بنویسی، به سیستم داده میدی و اون خودش قوانین رو کشف میکنه. مثلاً به جای اینکه بگی «اگه ایمیل کلمه lottery داشت، اسپمه»، هزار تا ایمیل اسپم و هزار تا ایمیل معمولی بهش نشون میدی و خودش یاد میگیره الگو رو تشخیص بده.
توی جعبه ML، یه جعبه دیگه هست: Deep Learning (یادگیری عمیق). این روش از شبکههای عصبی مصنوعی — یا همون Neural Networks — استفاده میکنه. کلمه «عمیق» به تعداد لایههای این شبکهها اشاره داره. هرچی لایهها بیشتر باشن، شبکه «عمیقتر» هست و میتونه الگوهای پیچیدهتری رو یاد بگیره.
و بالاخره، توی دل Deep Learning، به Large Language Model (مدل زبانی بزرگ، یا به اختصار LLM) میرسیم. اینا شبکههای عصبی فوقالعاده بزرگی هستن که روی حجم عظیمی از متن آموزش دیدن و میتونن زبان انسان رو بفهمن و تولید کنن.
پس رابطهشون اینه:
AI (هوش مصنوعی)
└── Machine Learning (یادگیری ماشین)
└── Deep Learning (یادگیری عمیق)
└── LLM (مدل زبانی بزرگ)
سه روش یادگیری ماشین — ساده و بیدرد
حالا که فهمیدیم Machine Learning چیه، بیا ببینیم ماشین چطوری «یاد میگیره». سه روش اصلی هست.
۱. Supervised Learning (یادگیری نظارتشده)
فرض کن داری به یه بچه یاد میدی حیوونا رو بشناسه. بهش عکس نشون میدی و میگی «این گربهست»، «این سگه»، «این پرندهست». بعد از کلی نشون دادن، بچه خودش میتونه حیوون جدیدی رو تشخیص بده.
Supervised Learning دقیقاً همینه. تو دادههایی داری که هر کدوم یه «برچسب» یا Label دارن. مدل از روی این دادههای برچسبدار یاد میگیره و بعد میتونه برای دادههای جدید پیشبینی کنه.
مثال واقعی: فیلتر اسپم ایمیل. هزاران ایمیل که برچسب «اسپم» یا «نرمال» خوردن، به مدل داده میشن و مدل یاد میگیره ایمیلهای جدید رو دستهبندی کنه.
۲. Unsupervised Learning (یادگیری بدون نظارت)
حالا فرض کن یه سبد پر از میوه داری و به بچه میگی «اینا رو دستهبندی کن». اسم میوهها رو نمیگی. بچه خودش بر اساس رنگ، اندازه و شکل، میوهها رو گروهبندی میکنه.
تو Unsupervised Learning، دادهها برچسب ندارن. مدل باید خودش الگوها و گروهبندیها رو پیدا کنه.
مثال واقعی: دستهبندی مشتریها. یه فروشگاه آنلاین دادههای خرید مشتریهاش رو به مدل میده و مدل خودش مشتریها رو به گروههایی مثل «خریداران حراج»، «مشتریهای وفادار» و «خریداران تکی» تقسیم میکنه.
۳. Reinforcement Learning (یادگیری تقویتی)
این یکی جالبه. فرض کن یه سگ داری تربیت میکنی. وقتی کار درست انجام میده بهش تشویقی میدی، وقتی اشتباه میکنه تشویقی نمیگیره. سگ با آزمون و خطا یاد میگیره کدوم کارها تشویقی دارن.
Reinforcement Learning همینطوریه. یه Agent (عامل) تو یه محیط قرار میگیره، تصمیم میگیره، و بر اساس نتیجه تصمیمش «پاداش» یا «جریمه» دریافت میکنه. با تکرار، یاد میگیره بهترین تصمیمها رو بگیره.
مثال واقعی: بازی شطرنج. AlphaZero از گوگل با بازی کردن میلیونها بازی شطرنج با خودش، از صفر به سطح فوقبشری رسید — بدون اینکه حتی یه کتاب شطرنج خونده باشه.
چرا الان همه حرف LLM میزنن؟
یه سؤال خوب: Machine Learning سالهاست وجود داره. Deep Learning هم از ۲۰۱۲ به بعد خیلی پیشرفت کرد. پس چرا الان، یهویی همه دارن از AI حرف میزنن؟
جواب سادهست: چون LLMها زبان آدمیزاد بلدن.
قبل از LLMها، برای استفاده از AI باید برنامهنویس یا دانشمند داده میبودی. باید API خاصی رو صدا میزدی، داده رو به فرمت خاصی تبدیل میکردی، و خروجی رو تفسیر میکردی.
ولی LLMها یه Interface (رابط) بهت میدن که هر آدمی باهاش آشناست: زبان طبیعی. تو فارسی یا انگلیسی باهاش حرف میزنی و جواب میگیری. این یعنی برای اولین بار تو تاریخ، AI برای همه قابل استفاده شده — نه فقط متخصصا.
سه تا عامل کلیدی باعث انقلاب LLMها شد:
- معماری Transformer — سال ۲۰۱۷ گوگل یه مقاله منتشر کرد با عنوان “Attention Is All You Need” که معماری Transformer رو معرفی کرد. این معماری نشون داد که برای فهم زبان، نیازی به پردازش کلمهبهکلمه نیست — میشه همه کلمات رو همزمان بررسی کرد.
- داده عظیم — اینترنت تریلیونها کلمه متن تولید کرده. کتاب، مقاله، فروم، ویکیپدیا، کد، مکالمه… همه اینا خوراک آموزش LLMها شدن.
- قدرت محاسباتی — GPUهای مدرن امکان آموزش مدلهایی با میلیاردها پارامتر رو فراهم کردن. بدون این سختافزار، ساخت LLM ممکن نبود.
یه مزیت مخفی که داری و نمیدونی
شاید فکر کنی «من برنامهنویس وبم، سالها PHP یا JavaScript کار کردم، چه ربطی به AI دارم؟» ولی واقعیت اینه که تو یه مزیت بزرگ داری نسبت به کسی که از صفر شروع میکنه.
اسمش Systems Thinking (تفکر سیستمی) هست.
تو به عنوان یه توسعهدهنده با تجربه، عادت داری به مسائل سیستمی فکر کنی. میدونی یه ورودی چطور پردازش میشه و خروجی تولید میکنه. میدونی debugging یعنی چی. میدونی چطور یه مشکل بزرگ رو به قطعات کوچیکتر بشکنی.
اینا دقیقاً مهارتهایی هست که برای کار با AI لازمه:
- فهم Input/Output — تو عادت داری با API کار کنی. LLM هم در نهایت یه API هست: متن میره تو، متن میاد بیرون.
- فهم Pipeline — میدونی چطور داده از یه مرحله به مرحله بعد جریان پیدا میکنه. خطوط پردازش AI (Data Pipeline) هم همینطوریه.
- Debugging — وقتی خروجی LLM خوب نیست، باید بتونی بفهمی مشکل کجاست. Prompt بد بوده؟ داده ورودی مشکل داشته؟ مدل مناسب نبوده؟ این همون ذهنیت debugging هست که سالها باهاش کار کردی.
- معماری نرمافزار — میدونی چطور سیستمهای بزرگ رو طراحی کنی. برای ساخت اپلیکیشنهای AI محور، دقیقاً همین مهارت لازمه.
- فهم Trade-off — تو دنیای وب یاد گرفتی که همیشه باید بین سرعت، هزینه و کیفیت تعادل ایجاد کنی. تو دنیای AI هم دقیقاً همینه — فقط متغیرها فرق میکنن.
واژهنامه — اصطلاحاتی که باید بدونی
قبل از اینکه بریم سراغ قسمتهای بعدی، بذار یه سری اصطلاح کلیدی رو مرور کنیم. اینا رو لازم نیست حفظ کنی — فقط یه بار بخونشون تا وقتی بعداً بهشون برخوردی، آشنا باشن.
- Model (مدل) — نتیجه آموزش یه الگوریتم ML روی داده. مثل مغز یه سیستم AI که اطلاعات یاد گرفتهشو توش ذخیره کرده.
- Parameter (پارامتر) — اعدادی که مدل در طول آموزش یاد میگیره. هرچی پارامتر بیشتر، مدل بزرگتر و (معمولاً) قویتر. GPT-4 چیزی حدود ۱.۸ تریلیون پارامتر داره.
- Training (آموزش) — فرآیند یاد دادن به مدل. داده بهش نشون میدی و پارامترهاش تنظیم میشن.
- Inference (استنتاج) — وقتی از مدل آموزشدیده استفاده میکنی. مثلاً وقتی یه سؤال از ChatGPT میپرسی، داری Inference انجام میدی.
- Token (توکن) — واحد پردازش متن تو LLMها. تقریباً هر ۴ کاراکتر انگلیسی یه توکن حساب میشه. تو قسمت سوم مفصل توضیح میدیم.
- Prompt (پرامپت) — متنی که به LLM میدی تا بر اساسش جواب تولید کنه.
- Fine-tuning (تنظیم دقیق) — وقتی یه مدل از قبل آموزشدیده رو روی دادههای خاص خودت دوباره آموزش میدی تا برای کار خاصت بهتر بشه.
- Embedding (جاسازی) — تبدیل متن (یا هر دادهای) به اعداد که کامپیوتر بتونه باهاشون کار کنه. تو قسمت سوم مفصل توضیح میدیم.
- Hallucination (توهم) — وقتی LLM چیزی میگه که واقعی نیست ولی با اعتماد به نفس بالا میگه. مثل دوستی که اطلاعات غلط رو با قاطعیت تعریف میکنه.
- Context Window (پنجره زمینه) — حداکثر متنی که LLM میتونه در یه مکالمه در نظر بگیره. مثل حافظه کوتاهمدت.
نقشه راه ما
تو این سری قراره قدم به قدم پیش بریم:
- قسمت ۱ (همین قسمت): نقشه کلی دنیای AI
- قسمت ۲: سختافزار AI — چرا GPU اینقدر مهمه و چه گزینههایی داری
- قسمت ۳: درون یه LLM — Token، Embedding و Transformer
- قسمتهای بعدی: Prompt Engineering، RAG، Fine-tuning، ساخت Agent و پروژه عملی
هر قسمت روی قبلی بنا میشه. سعی شده هر مفهومی که استفاده میشه، قبلاً توضیح داده شده باشه.
جمعبندی
تو این قسمت یاد گرفتیم که:
- AI یه مفهوم کلیه که ML، DL و LLM زیرمجموعههای تو در توی اون هستن
- سه روش اصلی یادگیری ماشین وجود داره: Supervised، Unsupervised و Reinforcement Learning
- LLMها به خاطر سه عامل معماری Transformer، داده عظیم و قدرت محاسباتی، انقلابی ایجاد کردن
- به عنوان یه توسعهدهنده با تجربه، مهارتهای Systems Thinking بهت مزیت بزرگی میده
تو قسمت بعدی میریم سراغ سختافزار. میخوایم بفهمیم چرا GPU قهرمان دنیای AI هست، VRAM چرا اینقدر مهمه، و چطور میشه بدون خرید سختافزار گرونقیمت هم با AI کار کرد. آمادهای؟
نظرات
هنوز نظری ثبت نشده. اولین نفر باشید!
نظر خود را بنویسید