علی ایزدی



یکی از چیزهای مهمی که اغلب ما به اون فکر نمی‌کنیم soft skill است.

این که من چرا تصمیم گرفتم این کتاب رو بخونم برمیگرده به جلسات sprint retrospective که تو شرکت میراث داشتیم. خیلی برام جالب بود که افراد تیم بعد از یک sprint تو اسکرام میان نقاط قوت و ضعف تیم رو بررسی میکنن. علاوه بر چیزای فنی یه چیزی که بررسی میشد soft skill اعضای تیم بود. به خاطر این که هدف از بیان این soft skillها این بود تا تیم بهتر عمل کنه اکثراً حول و حوش نحوه ارتباط افراد با یکدیگه تو تیم یا نحوه همکاری گروهی و یا نحوه فکرکردنشون نسبت به مسائل میچرخید.

واسه همین تصمیم گرفتم این کتاب رو بخونم. یکم شاید با اون چیزی که انتظار داشتم از soft skill و این که بیاد در مورد نحوه ارتباط با تیم حرف بزنه فرق داشت ولی اونقدری این کتاب خوب بود که تصمیم گرفتم درباره‌اش بنویسم و این که چرا باید این کتاب رو بخونین و دیدتونو نسبت به چیا به عنوان یک توسعه دهنده نرم افزار(‌ من ترجیح میدم بگم یک computer scienceای) عوض می‌کنه.

اگه بخوام مهم‌ترین چیزی از این کتاب یادگرفتم رو بگم اینه که چجوری می‌تونیم در بهینهترین حالت زندگیمون رو جلو ببریم. در واقع تو این کتاب نه فقط در مورد کار صحبت کرده بلکه در مورد این که چجوری productiveتر باشیم چجوری فرآیند یادگیریمونو درست کنیم یا این که چجوری از وقتمون درست تر استفاده کنیم حرف زده.

توی یه قسمتایی از کتاب در مورد مسائل مالی و سلامتی و روانی تو زندگی هم حرف زده که البته من خیلی این سه قسمت رو پیشنهاد نمیدم و اگه فکر میکنیn کل کتاب که حدوداً ۴۵۰ صفحه‌ است زیاده میتونین فقط همون ۴تا بخش اولش رو بخونین.

کتاب از ۷ بخش تشکیل میشه:‌

قسمت اول در مورد شغله: احتمالاً همه‌مون به کارآفرینی فکر کردیم ولی اکثراً تنها راهی که پیش میریم همون کارکردن واسه بقیه است. تو این قسمت من یکم دیدم به این قضیه فرق کرد که این که چجوری و کی میشه از حالت کارکردن واسه بقیه بیرون اومد. البته تو قسمت‌هایی از این بخش به پیداکردن کار و این که چرا ما به کار نیاز داریم و چجوری میتونیم مصاحبه‌ی خوبی داشته باشیم هم حرف زده.

قسمت دوم یکی از بهترین قسمت هاشه تحت عنوان marketing yourself: چیزی که باعث شد من الان بیام اینجا و بتونم این کتاب را واسه کسایی که حس میکنم واسشون فایده داره به اشتراک بگذارم.

تو این قسمت خیلی خوب در مورد چرایی این کار واسه موفقیتمون و نحوه انجام اون به خوبی توضیح داده شده.

قسمت سوم مربوط به یادگیریه:‌ چیزی که به نظرم خیلی خیلی خود من نسبت به اون مشکل داشتم با این که خیلی دوست دارم چیز جدید یادبگیرم ولی حس میکنم تو این فرآیند بهینه عمل نمی‌کنم.

تو این قسمت خیلی خوب در مورد روش یادگیری یه چیزی توضیح داده و در ادامه آموزش دادن یه چیزی رو گام خیلی مهمی در تسلط بر اون دونسته.

قسمت چهارم هم در مورد productivity هست که به نظرم جز بخش‌های جذاب این کتابه: اکثر ما کلی کار برای انجام دادن داریم و حتی اگه وقت زیادی هم واسه انجام اون ها بگذاریم بازهم ممکنه در آخر حس کنیم که نتونستیم از وقتمون بهینه استفاده کنیم یا حس میکنیم نمیتونیم برنامه ریزی درستی انجام بدیم یا حتی اگه برنامه ریزی میکنیم معمولا به اون عمل نمیکنیم. تو این قسمت دلیل این مشکل رو نسنجیدن میزان بهره وریمون بیان میکنه و این که چرا ما معمولاً تخمین درستی از میزان بهره وریمون نداریم و راه حلی رو ارائه میده که به نظرم خیلی خیلی میتونه تاثیر مثبتی در استفاده درست از وقت بگذاره.

قسمت های بعدی هم شامل financial و fitness و spirit بودند که من در مقایسه با چهار قسمت اول خیلی جذاب نبودند و اگه حس کردین کتاب زیاده میتونین اونا رو skip کنین.

همون جور که گفتم کتاب شاید خیلی نسبت به اون چیزی که انتظار داشتم که در مورد نحوه ارتباط درون تیمی در کار باشه نبود ولی خیلی خوب تونست دیدم رو نسبت به soft skillام عوض کنه و بفهمم چه قسمت های مهمی از این مهارت‌هام دچار مشکل هستند که اگه با همون روند قبلی جلو میرفتم خیلی توی بهره‌وریم و موقفیتم به مشکل میخوردم.

این کتاب رو به شدت بهتون پیشنهاد میکنم و امیدوارم که خوندنش تو موفقیتتون تاثیر مثبت بگذاره.


موضوعی که قراره درباره اش صحبت بکنم رو شرکت‌های بزرگی در ایران به داشتن این دانش و مهارت نیاز دارند و اگه دوست دارید کار دیتا بکنین احتمالا به اون‌ها نیاز دارید و این که چیزهایی هستن که احتمالا تو ارشد یادمیگیرن ولی دونستنشون خیلی میتونه به پیشرفتتون تو این زمینه کمک کنه. امیدوام بتونم یه دید کلی بهتون در زمینه  big data بدم.


تو این پست من ابتدا یه مقدمه‌ای میگم در مورد این که مسئلمون چیه و در ادامه دو قسمت که مربوط به batch processing و stream processing هست رو توضیح میدم.


در اولین قسمت مسئلمون رو بیان میکنیم:

تعریف مسئله:

زمانی که شما یه سیستم نرم افزاری راه می‌اندازید به تدریج ورودی سیستم شما داده ایجاد میکند. با افزایش کاربرانتون این حجم از داده افزایش می باید تا جایی که ما از آن تحت عنوان big data یاد میکنیم یعنی داده ای که نتوان آن را روی یک سیستم ذخیره کرد یا این که نتوان پردازش آن را روی یک سیستم انجام داد.

اکثر شرکت ها از این داده استفاده میکنند تا این که سرویسی رو به کاربرانشون بدن یا این که تحلیلی روی بر اساس رفتار و داده‌های کاربران در جهت بهترکردن سیستمشون انجام بدن. در هر دوحالت ما نیازمند مکانیزم هایی برای پردازش داده های کلان هستیم. به همین جهت  موضوعمون به دو قسمت تقسیم میشه:

        1-   پردازش داده به صورت دسته ای: که در این حالت داده ها موجودند و قرار است روی آن ها پردازش انجام شود و در حالت دوم

2-   پردازش جریان داده: که در این حالت داده به صورت real time  وارد سیستم میشود و همان زمان باید روی آن پردازش انجام شود.گاهی تنها مورد اول رو تحت عنوان big data بیان میکنند که این اشتباه است. و در این مقاله میخوایم این دو مفهوم که تکمیل کننده یک سیستم big data هستند رو بررسی کنیم و ابزارها و کاربردهای اون رو بیان کنیم.


 

 

داده های حجیم:

من اینجا سه تا مثال از سه تا شرکت معروف واستون اوردم که یه دیدی نسبت پیدا کنیم به این که وقتی میگیم این شرکت ها پردازش داده حجیم انجام میدن این داده در چه مقیاسی هست.

یوتیوب حدود 4 میلیون مشاهده در دقیقه داره

آدما توی توییتر در هر دقیقه حدود 450 هزار تا توییت میکنن.

و آدما توی اینستاگرام حدود 46 هزار پست در دقیقه قرار میدن.


توسعه اینچنین سیستم ‌هایی نیازمند stream processing و batch processing هستند تا بتونند به این میزان از کاربران سرویس بدن

در قسمت اول  میریم سراغ batch processing یا پردازش داده به صورت دسته ای. در این حالت فرض بر این است که داده در پایگاه داده موجود بوده و بر اساس نیاز کاربر نیاز است روی این حجم از داده پردازش شوند. داده های موجود نیز حجیم بود و بر روی چندین سرور قرار دارد.

برای این کار گوگل یک مدل برنامه نویسی تحت عنوان نگاه کاهش یا map reduce ارائه داد.

ایده‌شون هم خیلی ساده است. این که پردازش روی داده ها روی هر سرور به صورت جداگانه روی داده ای که در اختیار دارد انجام شود و در نهایت نتیجه این ها به گونه ای تجمیع شده و نتیجه پردازش جواب داده شود.

بخواهیم این ایده رو دقیق تر بیان میکنیم.

ابتدا داده ای تحت عنوان داده حجیم روی سیستم توزیع شده ای در اختیار داریم.

داده ها تحت توابع به اسم map function پردازش میشوند . نتیجه آن ها به گونه ای جابه جا میشود تا پردازش های که تجمیع آن ها در یک خروجی دارد در کنار هم قرار گیرند و در نهایت با استفاده از تابع reduce این نتایج تجمیع شوند و به عنوان خروجی پردازش محاسبه شوند.


برای این که  بهتر مفهوم بشه این مدل یک مثال معروف رو بیان میکنم.

فرض کنیم قراره تعداد هر یک از کلمات موجودی که در پایگاه داده هامون قرار دارند رو بشمریم. ممکنه که هر کلمه روی چند تا سرور قرار داشته باشه.

در مرحله اول همونجوری که میبیید این دیتا ها روی چند تا سرور قرار گرفته شده اند.

تابع map function تعداد هر کلمه روی هر سرور رو میشماره و تحت یک key value اونا رو واسه خروجی مرحله بعد آماده میکنه و که key در این جا همون کلمه و value آن تعدادی است از آن کلمه که در آن سرور موجود است.

در مرحله بعد سرور دیگری همه این key value ها را گرفته و آن ها را shuffle میکند تا key های مشابه در کنار هم قرار گفته و برای مرحله بعد که reduce است آماده شوند.

در مرحله بعد keyهای یکسان reduce پیدا میکنند که تابعی است که تعداد را جمع میزند. و در نهایت جواب مسئله آماده است.


تا الان ما یک مدل برنامه نویسی رو ارائه کردیم. که شاید در عمل اگر بخواهیم آن را پیاده سازی کنیم سخت به نظر برسد.

 

Hadoop  و   Spark

برای این کار گوگل frameworkای تحت عنوان هدوپ ارائه داد که فایل سیستم ای که برای این کار نیاز است و interface ای که تحت آن کاربر میتواند توابع map   و reduce خود را تعریف کند را توسعه داد. با استفاده از hadoop به راحتی میشود function های map و reduce را تعریف کرد و به راحتی میتوان دیتا در قالب فایل سیستم تعریف شده اضافه کرد.

فایل سیستم hdfs رو اگه بخوایم دقیق تر واردش بشیم از دو قسمت اصلی data node و name node تشکیل شدند که data node ها وظیفه ذخیره کردن داده و name node وظیفه اضافه کردن سرور مانیتور کردن سرورها و ایجاد چندین کپی از داده ها برای جلوگیری از failure و به طور کلی وظیفه مدیریت را بر عهده دارد.


مشکلی که هدوپ داشت این بود که برای پردازش داده ها داده ها باید ابتدا از دیسک خوانده میشدند که این از نظر زمان هزینه بر است.

در ادامه ابزاری تحت عنوان اسپارک توسعه داده شد که کار رو خیلی راحت تر کرد.

اسپارک روی هدوپ توسعه داده شد با این قابلیت که پردازش ها به صورت سریع تر و in-meomory انجام میشدند. اسپارک همچنان از مدل map reduce پشتیبانی میکند با این تفاوت که داده آن به صورت data frame است و کار را برای برنامه نویس بسیار راحت تر میکند زیرا برنامه نویسی مشابه قبل دیتا را به صورت یکی جدول میبیند بدون این که نیاز داشته باشد بداند چگونه به صورت in-memory در اسپارک این حجم از داده پردازش میشود.

قابلیت اسپاک لایبرری هایی است که در اختیار قرار داده است که پردازش هایی مانند یادگیری ماشین با اکثر الگوریتم های پیاده سازی شده مانند clustering و classification  انجام میشود.

 به راحتی متیوان تحت عنوان sql روی داده ها query زد.

و میتوان الگوریتم هایی که نیاز به پردازش گرافی دارند را به راحتی استفاده کرد.


در اینجا میرسیم به بخش دوم که پردازش جریان داده یا stream processing است.

 

Stream processing

تا اینجا فرض بر این بود که داده حجیم رو در اختیار داریم و قراره بر روی اون پردازش انجام بدیم ولی این مدل کافی نیست.

ما سیستم‌هایی داریم که نیازه ورودی اون ها داده در حجم زیاده و نیازه پردازش همون لحظه روی اون ها انجام بشه. به دو دلیل این که کاربر همون لحظه به اون جواب نیاز داره و این که داده پس از مدتی دیگه ارزشی نداره.

جریان داده هم هیچ گاه قطع نمیشه بنابراین ما حتی نمیتونیم اون حجم از داده رو ذخیره کنیم و اصلا در آینده ارزشی هم برای ذخیره کردن ندارد.

بنابراین ما به مدل برنامه نویسی نیاز داریم تا در این حالت ورودی سیستم که حجیم است را نیز پردازش کند.

کاربردهایی مانند ایجاد پایپ لاین برای پردازش داده  و تشخیص الگو روی داده های ورودی دارد.


چنین سیستم هایی برای این که بتوانند همیشه برای کاربر با این حجم از داده در دسترس باشند تحت عنوان سیستم های reactive شناخته میشوند.

این سیستم ها 4 ویژگی رو باید برآورده میکنند که برای برآورده کردن اون ها ما نیاز به سیستم های توزیع پذیر داریم.

یک زمان پاسخ آن ها باید سریع باشند که تحت عنوان responsive بیان میشود.

دومین ویژگی تحت عنوان resilient بیان میکند که باید خطاهای سیستم را به صورت خودکار برطرف کند تا ویژگی اول تضمین شود.

سه elastic باشد تا بر اساس میزان باری که بر روی پردازه است تنظیم شود.

و چهارم این که message driven باشد تا بتوان از قابلیت برنامه نویسی همروند استفاده کرد.

ما برای این که بتوانیم پردازش ها را به صورت stream پردازش کنیم نیازداریم تا چنین سیستم هایی به صورت توزیع شده طراحی کنیم.


 

همروندی:

قبل از این که مدلمون رو برای ایجاد چنین سیستم هایی پیشنهاد بدیم نیازه تا قبلش مشخص کنیم به چه همروندی نیاز داریم. طبق اون چیزی که توی سیستم عامل خوندیم همروندی رو میتونیم با استفاده از thread  و مفاهیمی مانند semaphore به کار ببریم ولی این نوع برنامه نویسی مشکلاتی از قبیل deadlock دارد که کار را برای برنامه نویس سخت میکند و نمیتوان از قابلیت سیستم های توزیع شده به راحتی استفاده کرد.

دومین روش همروندی استفاده از message passingاست که threadها تحت عنوان  message با همدیگه ارتباط برقرار میکنند.


 

 

Actor model

همون طور که در شکل میبینید هر actor که یک thread است تحت عنوان یک object شناخته میشود. و actorها با استفاده از message با همدیگه ارتباط برقرار میکنند. این نوع مدل برنامه نویسی به شدت همروندی را ایجاد میکند و با استفاده از آن میتوان سیستم های reactiveای ساخت که داده های حجیم را پردازش کند.

ایده ای actor model ایده ی قدیمیه ولی ابزارهایی امروزی اش به شدت این نوع مدل برنامه نویسی رو راحت کرده به عنوان مثال در زبان اسکالا فریمورکی به نام akka وجود دارد که به راحتی در آن یک actor میتواند به یک actor در یک cluster دیگر پیام بفرستد و به راحتی میتوان با استفاده از آن پایپ لاین داده ایجاد کرد با این قابلیت که خود آن میزان ورود و خروج پیام ها به اکتورها را کنترل میکند تا سیستم به علت پردازش زیاد از کار نیفتد.


 

Actor model یه مدل برنامه نویسی رو ارائه داد که به خصوص برای زبان های functional بسیار کاربردیه. اگه یه قدم تو ابزارهایی که داریم بخوایم جلوتر بریم ابزار کافکا رو معرفی میکنیم.

این ابزار توسط linkedin توسعه داده شده و این امکان رو در اختیار ما قرار میده که پیام هایی که تحت مدل actor مدل در سیستم تولید میشود را در این سیستم وارد کنیم. پیام ها در این سیستم publish یا فرستاده شده و actorهای دیگری این پیام ها را consume میکنند.

این ابزار به راحتی میتواند روی چندین سیستم توزیع شود تا بتوان حجم زیادی از پیام ها را توسط actor ها مختلف پردازش کرد.


 

جمع بندی :

 تا این جا ما دو حالت پردازش داده های کلان که به صورت batch و stream بودند رو بررسی کردیم.

ابزارهای اونا که شامل Hadoop و spark واسه قسمت اول  و  actor model  و kafka که واسه قسمت دوم بودن رو بررسی کردیم.

امیدوارم تونسته باشم یه دید کلی بهتون بدم از این که big data و سیستم های توزیع شده چی هستند و اگه علاقه مند هستید به کار دیتا تونسته باشم مسیری رو بهتون نشون داده باشم.

 

منابع مفید

https://medium.freecodecamp.org/a-thorough-introduction-to-distributed-systems-3b91562c9b3c

https://github.com/onurakpolat/awesome-bigdata

https://github.com/theanalyst/awesome-distributed-systems

https://github.com/rShetty/awesome-distr

این کتاب جز معدود رمان‌هایی بود که خیلی زود تمومش کردم(در دو شب) البته شاید هم نه فقط به خاطر جذابیت کتاب بلکه به خاطرافزایش علاقه‌ام نسبت به رمان‌های ایرانی بوده باشه.
نمیخوام کتاب رو اسپویل کنم و بگم چه اتفاقایی میفته توش فقط چندتا نکته راجع بهش میگم.
کتاب در مورد زندگی سه تا دختره و از زبون خودشون بیان میشه. بر خلاف داستان ناراحت کننده ای که داره و مثل این که دحترا خوششون نمیاد از این کتاب خیلی برای من جذاب بود. خیلی خوب تونستم با زندگی سه تا دختر و مشکلاتی که تو زندگیشون دارن ارتباط برقرار کنم و اصلا با همین هدف هم تصمیم گرفته بودم این کتاب رو بخونم. کتاب واقعا نوعه و دغدغه ‌های همین زندگی امروزیمون رو بیان میکنه.
از زندگی دختری که میخواد اپلای کنه و واسه اون به هر دری میزنه. دختری که دغدغه داشتن شوهر خوب رو داره در حالی که خودش داره زندگی خونواده اش رو اداره میکنه و دختری که بر خلاف درسی که خونده توی چیزی که علاقه داره مشغول به کاره.
از چند جهت این کتاب شباهت هایی به من داشت که از خوندنش لذت بردم. 
اولیش دو تا دختری بودن که به خاطر دانشگاه از شهر دیگه ای اومده بودن تهران.
دومیش دخترایی که تو رشته مهندسی درس خونده بودن(مکانیک).(خود نسیم مرعشی نویسنده کتاب هم دانشگاه علم و صنعت مکانیک خونده)
سومیش دختری که تصمیم به اپلای گرفته و تمام زندگیش رو گذاشته واسه اپلای و آخرش شک میکنه که آیا واقعا کار درستی داره میکنه و ارزش داره یا نه.
کتاب از نظر ادبی به نظرم واقعا در سطح خوبی قرار داره. این که خیلی خوب بین شخصیتا سوییچ میکنه در هر فصلی که مربوط به یکی از سه شخصیته و در عین حال ارتباط سه نفر رو خیلی خوب بیان میکنه. و دوم این که ترتیب زمانی تو این کتاب رعایت نشده و خیلی هنرمندانه بین تفکرات شخصیتا و زمان حالشون سوییچ میکنه که به نظرم خیلی خوب ارتباط داستان رو بیان میکنه و هیچ سوالی باقی نمیذاره.
در کل به نظرم کتاب خوبیه و اگه رمان دوست دارین به پسرا پیشنهادش میکنم تا با دید دخترونه بیشتر آشنا بشین.

اینجای کتاب هم با ما امیرکبیریا اشتراک داشت:

البته بگم که این پسره واقعا شخصیت خوبی نداره در طول داستان و واقعا من اونو به پسرای امیرکبیری شبیه میدونم :)





این "دفتر" همون ترم ۵عه و این "حکایت" زندگی منه نه پایان دانشگاه.

از ترم ۵ به عنوان پادشاه ترم ها یاد کرد یکی از دوستان گرام و من اونو میذارم جزئی از مهم‌ترین دوران زندگیم.

اسم اتمام ترم ۵ رو میذارم گذر از تاثیرپذیری به تاثیرگذاری.

تو این ترم اشتباهاتی کردم که بزرگترین درس‌های زندگیم بودن. اکثرا کارهایی در جهت پیشرفتم کردم که مجبور شدم تاوانشون رو پس بدم ولی الان میبینم که ارزش انجامشون رو داشتن.


 بر خلاف ترم قبل که خیلی تلاش کردم تو جمع باشم و خیلی سعی کردم مشکل اجتماعی نبودنم رو حل کنم این ترم سعی کردم تنها باشم. چه تو تنها درس خوندنام چه تو پیاده روی های طولانیم چه تو خیلی از کارهای دیگه‌ام واسه این که هدفم رو پیدا کنم. دلیل این تنهایی شاید ابتدا ناخواسته بود ولی من نیاز داشتم دور از دغدغه ارتباط با بقیه کمی به خودم فکر کنم. کمی با خودم حرف بزنم و بیشتر از همه سعی کنم خودم مسئله‌های زندگیم رو حل کنم.

از این که تنها بدون دوستام رفتم کربلا تنها بدون دوستام رفتم اردوی مسجد و تنها بدون دوستام درس خوندم با وجود این که بارها خواستن که با هم درس بخونیم ولی من فرار کردم. تنها رفتم و اومدم و تاوانش رو هم پس دادم.

انگ کم حرف بودن رو پذیرفتم تو کربلا تا کل مسیر رو به زندگیم فکر کنم. پایین اومدن نمره ام رو به خاطر این که گروهی درس نخوندم پذیرفتم تا هم تنها باشم و هم بتونم خودم مسئله‌های پیش روم حل کنم.

احتمالا تو این راه اعتماد به نفسم هم کم شد چون خواسته یا ناخواسته بیشتر پل هایی که واسه ارتباط بیشترم و اجتماعی تر شدنم ساخته بودم رو خراب کردم این ترم ولی بازهم ارزشش رو داشت

از کارم اومدم بیرون توی مهر و با وجود این که اول ترم تصمیم گرفته بودم ۲۱ واحد با قدرت بردارم ولی وسط راه حذفش کردم چون نیاز وقت آزاد داشتم تا فکر کنم.


اینا همه تاوانایی بود که پس دادم ولی مهم تر از همش این بود که اونقدری دور و برم خلوت شده بود که میتونستم بدون هیچ دغدغه‌ای فکر کنم.

فکر کردم به هدف زندگیم. فکر کردم به این که قراره چیکار کنم . فکر کردم به این که چی هستم و چه توانایی دارم . اون قدری گشتم تا پیدا کنم که میتونم چیکار بکنم فکر کردم تا چجوری میتونم ارزش داشته باشم. و همه این ها نتیجه اش این شد که الان با اعتماد به نفس میتونم بگم که قراره از این به بعد تاثیر گذار باشم .


این ترم سعی کردم از زندگی لذت ببرم و سعی کردم احساساتم رو بیشتر کنترل کنم. و سعی کردم یه کم کارهای متفاوت تری که تاحالا تو زندگیم نکرده بودم بکنم.


همینجا برنامه ریزی میکنم واسه ترم بعد که حالا حداقل دیگه تکلیفم با خودم بیشتر مشخص شده و کاری اگه میکنم دلیلش رو میدونم.

۱- دوست دارم فعالیتی داشته باشم تو یکی از تشکل‌های دانشگاه  و هم چنین فعالیت بیشتر تو مسجد چون احساس میکنم بُعدی از ارزش آفرینیم میتونه تو این زمینه ها باشه

۲- هدف درسیم و این که قراره چه فیلدی رو ادامه بدم و چرا و کی ارشد بخونم و چرا دکترا نخونم  تا حد کاملا خوبی مشخص کردم و دوست دارم چند نفری که اونا هم با من علاقه‌شون یکیه یه گروه خوب تشکیل بدیم و جلو بریم

۳- دوست دارم با چندتا از بچه ها که اتفاقا حرفش رو هم زدیم یه مجله درست حسابی تو دانشکده راه بندازیم

۴- ترم ۴ خیلی مطالعه غیر درسی داشتم و خیلی تجربه کردم و ترم ۵ هم که بیشتر فکر کردم. دوست دارم ترم بعد دوباره برگردم به سمت کتاب‌هام و این دفعه کتاب‌هایی بخونم که حالا قراره جهت فکریم رو در جهت شناخت بهتر سوق بده.

۵- بیشتر و بیشتر بنویسم تو وبلاگم.


واسه تلیف فضا  و خالی نبودن وبلاگم از عریضه‌ی نداشتن عکس هم یه عکس میذارم از مه دو هفته پیش تو خزر شهر جای همگی خالی :)













تبلیغات

آخرین ارسال ها

آخرین جستجو ها

بیت کوین رایگان دانلود آهنگ جدید، دانلود آهنگ جدید ایرانی دیزل ژنراتور پرکینز - قیمت دیزل ژنراتور -66878016-021 دوره آموزش آنلاین ☆Minnie world☆ فروش دمنوش نیوشا در اصفهان مهران جعفرخانی .:: مجیب ::. نوشته های یک مهندس مکانیک انجام تمام پروژه های دانشجویی و چاپ کتاب و ترجمه و تایپ