هوش سامان

ساخت وبلاگ

Ever since Garry Kasparov lost his second chess match against IBM’s Deep Blue in 1997, the writing has been on the wall for humanity. Or so some like to think. Advances in artificial intelligence will lead – by some estimates, in only a few decades – to the development of superintelligent, sentient machines. Movies from The Terminator to The Matrix have portrayed this prospect as rather undesirable. But is this anything more than yet another sci-fi “Project Fear”?

Sign up to our Inside Saturday newsletter for an exclusive behind the scenes look at the making of the magazine’s biggest features, as well as a curated list of our weekly highlights.

Some confusion is caused by two very different uses of the phrase artificial intelligence. The first sense is, essentially, a marketing one: anything computer software does that seems clever or usefully responsive – like Siri – is said to use “AI”. The second sense, from which the first borrows its glamour, points to a future that does not yet exist, of machines with superhuman intellects. That is sometimes called AGI, for artificial general intelligence.

How do we get there from here, assuming we want to? Mode AI employs machine leaing (or deep leaing): rather than programming rules into the machine directly we allow it to lea by itself. In this way, AlphaZero, the chess-playing entity created by the British firm Deepmind (now part of Google), played millions of training matches against itself and then trounced its top competitor. More recently, Deepmind’s AlphaFold 2 was greeted as an important milestone in the biological field of “protein-folding”, or predicting the exact shapes of molecular structures, which might help to design better drugs.

Machine leaing works by training the machine on vast quantities of data – pictures for image-recognition systems, or terabytes of prose taken from the inteet for bots that generate semi-plausible essays, such as GPT2. But datasets are not simply neutral repositories of information; they often encode human biases in unforeseen ways. Recently, Facebook’s news feed algorithm asked users who saw a news video featuring black men if they wanted to “keep seeing videos about primates”. So-called “AI” is already being used in several US states to predict whether candidates for parole will reoffend, with critics claiming that the data the algorithms are trained on reflects historical bias in policing.

A real AI, Nick Bostrom suggests, might manufacture nerve gas to destroy its inferior, meat-based makers

Computerised systems (as in aircraft autopilots) can be a boon to humans, so the flaws of existing “AI” aren’t in themselves arguments against the principle of designing intelligent systems to help us in fields such as medical diagnosis. The more challenging sociological problem is that adoption of algorithm-driven judgments is a tempting means of passing the buck, so that no blame attaches to the humans in charge – be they judges, doctors or tech entrepreneurs. Will robots take all the jobs? That very framing passes the buck because the real question is whether managers will fire all the humans.

The existential problem, meanwhile, is this: if computers do eventually acquire some kind of god‑level self-aware intelligence – something that is explicitly in Deepmind’s mission statement, for one (“our long-term aim is to solve intelligence” and build an AGI) – will they still be as keen to be of service? If we build something so powerful, we had better be confident it will not tu on us. For the people seriously conceed about this, the argument goes that since this is a potentially extinction-level problem, we should devote resources now to combating it. The philosopher Nick Bostrom, who heads the Future of Humanity Institute at the University of Oxford, says that humans trying to build AI are “like children playing with a bomb”, and that the prospect of machine sentience is a greater threat to humanity than global heating. His 2014 book Superintelligence is seminal. A real AI, it suggests, might secretly manufacture nerve gas or nanobots to destroy its inferior, meat-based makers. Or it might just keep us in a planetary zoo while it gets on with whatever its real business is.

AI wouldn’t have to be actively malicious to cause catastrophe. This is illustrated by Bostrom’s famous “paperclip problem”. Suppose you tell the AI to make paperclips. What could be more boring? Unfortunately, you forgot to tell it when to stop making paperclips. So it tus all the matter on Earth into paperclips, having first disabled its off switch because allowing itself to be tued off would stop it pursuing its noble goal of making paperclips.

هوش سامان...
ما را در سایت هوش سامان دنبال می کنید

برچسب : احراز هویت, هوش مصنوعی, هوش سامان, تشخیص چهره, احراز اصالت, نویسنده : هوش سامان hooshsaman بازدید : 94 تاريخ : يکشنبه 23 بهمن 1401 ساعت: 17:17

نبرد بین چین و آمریکا در AI به نفع چه کسی تمام می‌شود؟ در حال حاضر آمریکا و چین در حوزه‌های امنیتی و نظامی در حال رقابت‌اند. بر اساس گفته‌های نیکلاس چایلان، رئیس سابق نرم‌افزار پنتاگون چین از آمریکا در هوش مصنوعی جلو زده است و هدف اصلی آن‌ها این است که آمریکا همیشه در ریسک باشد. بااین‌حال راج ایر، فرمانده ارتش ایالات متحده معتقد است این حرف‌ها صحت ندارد. راج ایر می‌گوید اطلاعات زیادی در مورد هوش مصنوعی وجود دارد که در اختیار ارتش و شرکت‌های هوشمند است. این داده‌ها بسیار زیاد است و بر اساس استراتژی پیش می‌رود که با چینی‌ها قابل‌ مقایسه نیست.

 

 

 

چینی‌ها آب در هاون می‌کوبند!

 

 تنها راهی که می‌توان تکه‌هایی از این نوع اطلاعات را به دست آورد، جرایم سایبری، جاسوسی و سایر روش‌های پلید است. درست است که چین در به‌کارگیری AI قوی‌تر عمل کرده است ولی هزینه‌ی این کار، نادیده‌ گرفتن آزادی افراد و حقوق انسانی است. دولت چین از هوش مصنوعی برای کنترل زندگی مردم و کاهش جمعیت استفاده می‌کند.

 

درحالی‌که داده‌های ایالات‌متحده در گذشته از مرزها عبور کرده است، این تخلفات در مقایسه با سیستم اعتبار اجتماعی چین در آمریکا بسیار کمرنگ شده است. در چین روش‌های شناسایی دیجیتال و سایر ابزارهای سرکوب توسط حزب کمونیست اجرا می‌شود.

 

 

آیا آمریکا در هوش مصنوعی عقب‌نشینی می‌کند؟

 

 

Chaillan چنین فکر می‌کند که حقوق بشر و آزادی شخصی فراموش ‌شده است. بر اساس مقاله رویترز، او می‌گوید بی‌میلی شرکت‌های آمریکایی مانند Alphabet GOOG، -1.41 برای همکاری با دولت در زمینه هوش مصنوعی و بحث‌های اخلاقی گسترده در مورد این فناوری نشان‌دهنده رعایت نشدن حقوق مردم است. درحالی‌که شرکت‌های چینی موظف به همکاری با دولت خود هستند و متأسفانه چینی‌ها در این نبرد سرمایه‌گذاری‌های هنگفتی را بدون رعایت اصول اخلاقی انجام می‌دهند.

 

 

همه‌ی این مشکلات به دلیل یک آموزش اشتباه است. در قرن نوزدهم سرگئی نچایف، رویکرد «هدف وسیله را توجیه می‌کند» را در انقلاب روسیه ابداع کرد. این طرز تفکر به دولت‌مردان اجازه می‌دهد که با خودرأی بودن از هر روشی برای پیشرفت و رقابت با سایر کشورها استفاده کنند. همان‌طور که در حال حاضر ابرقدرت‌ها، به این بهانه که در حال تقویت قدرت خود هستند و به ابزارهای خاصی نیاز دارند از کشورهای جهان سوم سواستفاده می‌کنند

 

 

حال سوال اصلی اینجاست. آمریکا تا کجا پیش رفته است؟

 

در اوایل سال جاری، گزارشی با حمایت دفتر معاون رئیس ستاد ارتش ایالات‌متحده منتشر شد. این سند تأکید می‌کند که آخرین اتحاد چین و روسیه که در سال ۲۰۱۴ آغاز شده است، هنوز در سال ۲۰۲۱ وجود دارد و به‌احتمال زیاد در آینده هم ادامه خواهد داشت. این گزارش نشان می‌دهد آمریکا باید عملکرد متفاوتی را برای چین در نظر بگیرد. بر طبق این گزارش این دو کشور توافق کرده‌اند که اطلاعات مهم در حوزه‌ی تکنولوژی را به اشتراک بگذارند، اطلاعاتی مانند وسایل نقلیه مافوق صوت، سیستم‌های ضد فضایی و هوش مصنوعی. البته باید اشاره‌کرده که این ائتلاف شریک قدرتمندی را برای چین فراهم کرده است، ولی این همکاری در صورتی ضروری بوده که هر دو کشور شانس کمی در برابر آمریکا، کشوری با بیشترین هزینه نظامی در جهان، داشته باشند.

البته باید به یاد داشته باشیم که چین کشوری است که باید در آینده با بحران جوان‌سازی جمعیت دست‌وپنجه نرم کند و استفاده از هوش مصنوعی می‌تواند یک شمشیر دو لبه تیز باشد که چین را به نابودی بکشاند. برای همین است که چین به متحدهای دیگر نیاز دارد. برای بررسی فرضیه‌ای که توسط رئیس سابق نرم‌افزار پنتاگون ارائه شده است هنوز زود است و باید منتظر اتفاقات آینده باشیم.

 

همیشه باید گوش‌به‌زنگ بود

آیا این هشدار وحشتناک در ایالات‌متحده باید تبدیل به یک‌ فوریت نظامی شود؟ آیا این احساس خطر این اجازه را به آمریکا می‌دهد که سیاست‌های خود را تغییر دهد؟ برای این نتیجه‌گیری هنوز زود است ولی همه می‌دانیم که این‌چنین درگیری‌ها و احساس خطرها برای اولین بار نبوده و آخرین بار هم نیست. در جهان اکنون، ما با مشکلات متفاوتی روبه‌رو هستیم. از گرمای جهانی گرفته تا بهداشت عمومی و این خطرات بهانه‌های خوبی برای کشورهای قدرتمند هستند تا نفوذ خود را در سایر کشورها بیشتر کنند.

 

هوش مصنوعی یک علم اصلی و پایه‌ای است که می‌تواند در سایر علوم به کار گرفته شود. همچنین، AI یک حامی عالی برای پیشرفت سایر علوم از صنایع و کارخانه‌ها گرفته تا ارتش است. اینکه آمریکا برای بهبود عملکرد از AI استفاده کند ایده‌ی بدی نیست. ما باید به سمت آینده حرکت کنیم و برای این حرکت  باید حقوق شخصی انسان‌ها را رعایت کنیم. اگر آمریکا قوانین انسانی را زیر پا بگذارد تا بتواند خود را به چین برساند فرقی با سایر کشورهای متجاوز نخواهد داشت.

باید امید داشت دولت آمریکا با وجود این فشارها و مخالفت‌ها راه درستی را انتخاب کند و نه‌تنها به متحدهای خود احترام بگذارد بلکه به مردم آمریکا نیز خدمت کند.

 

https://hooshsaman.com/

 

هوش سامان...
ما را در سایت هوش سامان دنبال می کنید

برچسب : احراز هویت, هوش مصنوعی, هوش سامان, تشخیص چهره, احراز اصالت, نویسنده : هوش سامان hooshsaman بازدید : 95 تاريخ : يکشنبه 23 بهمن 1401 ساعت: 14:01