Attitudes towards Artificial Intelligence

نگرش نسبت به هوش مصنوعی

Attitudes towards Artificial Intelligence

 

Artificial intelligence (AI) can already <strong>predict</strong> the future.
هوش مصنوعی AI می تواند آینده را <strong>پیش بینی کند.</strong>

Police <strong>forces</strong> are using it to map when and where crime is likely to occur.
<strong>نیروهای</strong> پلیس از آن برای ترسیم زمان و مکان احتمال وقوع جرم استفاده می کنند.

Doctors can use it to predict when a patient is most likely to have a heart <strong>attack</strong> or stroke.
پزشکان می توانند از آن برای پیش بینی اینکه چه زمانی یک بیمار بیشتر در معرض <strong>حمله</strong> قلبی یا سکته است استفاده کنند.

Researchers are even trying to give AI imagination so it can plan for unexpected <strong>consequences</strong>.
محققان حتی سعی می کنند به هوش مصنوعی تخیل بدهند تا بتواند برای <strong>عواقب</strong> غیرمنتظره برنامه ریزی کند.

Many decisions in our lives require a good forecast, and AI is almost always better at <strong>forecasting</strong> than we are.
بسیاری از تصمیمات در زندگی ما نیاز به یک پیش بینی خوب دارند و هوش مصنوعی تقریباً همیشه بهتر از ما در <strong>پیش بینی </strong><strong>کردن</strong> عمل می کند.

Yet for all these technological advances, we still seem to deeply lack confidence in AI predictions. Recent cases show that people don’t like relying on AI and prefer to trust human <strong>experts</strong>, even if these experts are wrong.
با وجود این همه پیشرفت‌ در فناوری، به نظر می‌رسد هنوز عمیقاً به پیش‌بینی‌های هوش مصنوعی بی‌اعتماد هستیم. موارد اخیر نشان می دهد که مردم دوست ندارند به هوش مصنوعی اعتماد کنند و ترجیح می دهند به متخصصان انسانی اعتماد کنند، حتی اگر این <strong>متخصصان</strong> اشتباه کنند.

If we want AI to really <strong>benefit</strong> people, we need to find a way to get people to trust it.
اگر می‌خواهیم هوش مصنوعی واقعاً برای مردم <strong>مفید</strong> باشد، باید راهی پیدا کنیم که مردم به آن اعتماد کنند.

To do that, we need to understand why people are so reluctant to <strong>trust</strong> AI in the first place.
برای انجام این کار، باید درک کنیم که چرا مردم در وهله اول تا این حد تمایلی به <strong>اعتماد</strong> به هوش مصنوعی ندارند.

 

Take the case of Watson for Oncology, one of technology giant IBM’s supercomputer programs.
نمونه Watson for Oncology، یکی از برنامه های ابررایانه ای غول فناوری IBM را در نظر بگیرید.

Their attempt to promote this program to <strong>cancer</strong> doctors was a PR disaster.
تلاش آنها برای تبلیغ این برنامه برای پزشکان <strong>سرطان</strong> یک فاجعه در PR بود.

The AI promised to deliver top-quality recommendations on the <strong>treatment</strong> of 12 cancers that accounted for 80% of the world’s cases.
هوش مصنوعی وعده داده است که توصیه هایی با کیفیت بالا در مورد <strong>درمان</strong> 12 سرطان که 80 درصد موارد در جهان را تشکیل می دهند، ارائه دهد.

But when doctors first interacted with Watson, they found themselves in a rather difficult <strong>situation</strong>.
اما هنگامی که پزشکان برای اولین بار با واتسون تعامل برقرار کردند، خود را در <strong>موقعیت</strong> نسبتاً سختی دیدند.

On the one hand, if Watson provided guidance about a treatment that coincided with their own opinions, physicians did not see much point in Watson’s <strong>recommendations</strong>.
از یک طرف، اگر واتسون در مورد درمان منطبق با نظرات خود آنها راهنمایی می کرد، پزشکان نکته زیادی در <strong>توصیه</strong> های واتسون نمی دیدند.

The supercomputer was simply telling them what they already knew, and these recommendations did not change the actual <strong>treatment</strong>.
ابرکامپیوتر به سادگی آنچه را که از قبل می دانستند به آنها می گفت و این توصیه ها <strong>درمان</strong> واقعی را تغییر نمی داد.

On the other hand, if Watson generated a recommendation that contradicted the experts’ opinion, doctors would typically conclude that Watson wasn’t <strong>competent</strong>.
از سوی دیگر، اگر واتسون توصیه‌ای را ارائه می‌کرد که با نظر متخصصان مغایرت داشت، پزشکان معمولاً به این نتیجه می‌رسیدند که واتسون <strong>صلاحیت</strong> ندارد.

And the machine wouldn’t be able to explain why its treatment was plausible because its machine-learning algorithms were simply too <strong>complex</strong> to be fully understood by humans.
و ماشین نمی تواند توضیح دهد که چرا  پیشنهادی او قابل قبول است زیرا الگوریتم های یادگیری ماشینی آن صرفا <strong>پیچیده</strong> تر از آن هستند که انسان ها آن را به طور کامل درک کنند.

Consequently, this has caused even more suspicion and disbelief, leading many doctors to ignore the seemingly outlandish AI recommendations and stick to their own <strong>expertise</strong>.
در نتیجه، این باعث شک و ناباوری بیشتر شد و بسیاری از پزشکان را وادار کرد که توصیه های به ظاهر عجیب هوش مصنوعی را نادیده بگیرند و به <strong>تخصص</strong> خود پایبند بمانند.

 

This is just one example of people’s lack of confidence in AI and their reluctance to <strong>accept</strong> what AI has to offer.
این فقط یک نمونه از عدم اعتماد مردم به هوش مصنوعی و عدم تمایل آنها به <strong>پذیرش</strong> آنچه که هوش مصنوعی ارائه می دهد است.

Trust in other people is often based on our understanding of how others think and having experience of their <strong>reliability</strong>.
اعتماد به افراد دیگر اغلب بر اساس درک ما از نحوه تفکر دیگران و داشتن تجربه از <strong>قابلیت اطمینان</strong> آنها است.

This helps create a psychological feeling of <strong>safety</strong>.
که به ایجاد احساس <strong>امنیت</strong> روانی کمک می کند.

AI, on the other hand, is still fairly new and <strong>unfamiliar</strong> to most people.
از سوی دیگر، هوش مصنوعی هنوز برای اکثر مردم نسبتاً جدید و <strong>ناآشنا</strong> است.

Even if it can be technically explained (and that’s not always the case), AI’s decision-making process is usually too difficult for most people to <strong>comprehend</strong>.
حتی اگر بتوان آن را از نظر فنی توضیح داد (و همیشه اینطور نیست) <strong>درک</strong> فرآیند تصمیم‌گیری هوش مصنوعی معمولاً برای اکثر مردم بسیار دشوار است.

And <strong>interacting</strong> with something we don’t understand can cause anxiety and give us a sense that we’re losing control.
و <strong>تعامل</strong> با چیزی که درک نمی کنیم می‌تواند باعث اضطراب شود و به ما این حس را بدهد که کنترل خود را از دست داده ایم.

Many people are also simply not familiar with many <strong>instances</strong> of AI actually working, because it often happens in the background.
بسیاری از مردم نیز به سادگی با بسیاری از <strong>نمونه های</strong> AI که واقعا خوب کار می کنند، آشنا نیستند، زیرا اغلب در پس زمینه اتفاق می افتد.

Instead, they are acutely <strong>aware</strong> of instances where AI goes wrong.
در عوض، آنها از مواردی که هوش مصنوعی اشتباه می کند کاملا <strong>آگاه</strong> هستند.

Embarrassing AI failures receive a disproportionate amount of media attention, emphasising the message that we cannot <strong>rely</strong> on technology.
شکست های شرم آور هوش مصنوعی توجه رسانه ها را به میزان نامتناسبی جلب می کند و بر این پیام تأکید می کند که نمی توانیم به فناوری <strong>تکیه کنیم.</strong>

Machine learning is not <strong>foolproof</strong>, in part because the humans who design it aren’t.
  یادگیری ماشینی <strong>بی‌خطا</strong> نیست، تا حدی به این دلیل که انسان‌هایی که آن را طراحی می کنند، بدون خطا نیستند.

 

Feelings about AI run deep.
احساسات در مورد هوش مصنوعی در عمق وجود ما شکل گرفته.

In a recent <strong>experiment</strong>, people from a range of backgrounds were given various sci-fi films about AI to watch and then asked questions about automation in everyday life.
در <strong>آزمایشی</strong> که اخیرا انجام شد، به افراد مختلف با پیشینه‌های مختلف، فیلم‌های علمی تخیلی مختلفی در مورد هوش مصنوعی نشان داده شد تا آنها را ببینند و سپس درباره اتوماسیون در زندگی روزمره از آنها سؤالاتی پرسیدند.

It was found that, regardless of whether the film they watched depicted AI in a positive or negative light, simply watching a cinematic vision of our technological future polarised the participants’ <strong>attitudes</strong>.
مشخص شد که صرف نظر از اینکه فیلمی که تماشا کردند هوش مصنوعی را به شکلی مثبت یا منفی به تصویر می‌کشید، صرفاً تماشای یک چشم‌انداز سینمایی از آینده تکنولوژیکی مان، <strong>نگرش</strong> شرکت‌کنندگان را دو قطبی کرد.

<strong>Optimists</strong> became more extreme in their enthusiasm for AI and sceptics became even more guarded.
اشتیاق <strong>خوش‌بین‌ها</strong> نسبت به هوش مصنوعی بیشتر شد و بدبینان گارد بیشتری در برابر آن گرفتند.

This suggests people use relevant evidence about AI in a <strong>biased</strong> manner to support their existing attitudes, a deep-rooted human tendency known as “confirmation bias”.
این نشان می دهد که افراد از شواهد مرتبط با هوش مصنوعی به شیوه ای <strong>مغرضانه</strong> برای حمایت از نگرش های کنونی خود - گرایشی که در انسان ریشه می دواند به نام "سوگیری تایید"- استفاده می کنند.

As AI is <strong>represented</strong> more and more in media and entertainment, it could lead to a society split between those who benefit from AI and those who reject it.
همانطور که هوش مصنوعی بیشتر و بیشتر در رسانه ها و سرگرمی ها <strong>نشان داده می شود</strong>، می تواند منجر به ایجاد شکافی در جامعه بین کسانی شود که از هوش مصنوعی سود می برند و کسانی که آن را رد می کنند.

More pertinently, <strong>refusing</strong> to accept the advantages offered by AI could place a large group of people at a serious disadvantage.
مهم تر از آن، <strong>امتناع</strong> از پذیرش مزایای ارائه شده توسط هوش مصنوعی می تواند گروه بزرگی از مردم را در معرض آسیب جدی قرار دهد.

 

Fortunately, we already have some ideas about how to <strong>improve</strong> trust in AI.
خوشبختانه، ما در حال حاضر ایده هایی داریم که چگونه اعتماد به هوش مصنوعی را <strong>افزایش دهیم</strong>.

Simply having previous experience with AI can significantly improve people’s <strong>opinions</strong> about the technology, as was found in the study mentioned above.
همانطور که در مطالعه ذکر شده در بالا مشخص شد، داشتن تجربه قبلی از هوش مصنوعی می تواند به طور قابل توجهی <strong>نظرات</strong> مردم را در مورد این فناوری بهبود بخشد.

Evidence also suggests the more you use other technologies such as the internet, the more you <strong>trust</strong> them.
شواهد همچنین نشان می‌دهند که هر چه بیشتر از فناوری‌های دیگر مانند اینترنت استفاده کنید، بیشتر به آنها <strong>اعتماد</strong> خواهید کرد.

Another solution may be to reveal more about the algorithms which AI uses and the purposes they serve. Several high-profile social media companies and online marketplaces already release transparency reports about government requests and surveillance <strong>disclosures</strong>.
راه حل دیگر ممکن است افشای اطلاعات بیشتر در مورد الگوریتم هایی باشد که هوش مصنوعی از آنها استفاده می کند و اهدافی که در خدمت آنها هستند. چندین شرکت پرمخاطب رسانه‌های اجتماعی و بازارهای آنلاین در حال حاضر گزارش‌های شفاف‌سازی درباره درخواست‌های دولت و <strong>افشای</strong> نظارت‌ها منتشر کرده‌اند.

A similar <strong>practice</strong> for AI could help people have a better understanding of the way algorithmic decisions are made.
به کارگیری همین <strong>اقدام</strong> برای هوش مصنوعی می تواند به مردم کمک کند تا درک بهتری از روش تصمیم گیری الگوریتمی داشته باشند.

 

Research suggests that allowing people some control over AI decision-making could also improve trust and <strong>enable</strong> AI to learn from human experience.
تحقیقات نشان می‌دهد که اگر به افراد اجازه بدهید بر روی تصمیم‌گیری هوش مصنوعی کنترل داشته باشند هم اعتماد آنها بیشتر می شود و هم هوش مصنوعی را <strong>قادر می سازد</strong> تا از تجربیات انسانی بیاموزد.

For example, one study showed that when people were allowed the <strong>freedom</strong> to slightly modify an algorithm, they felt more satisfied with its decisions, more likely to believe it was superior and more likely to use it in the future.
به عنوان مثال، یک مطالعه نشان داد که وقتی به افراد <strong>آزادی</strong> عمل داده شد تا یک الگوریتم را کمی اصلاح کنند، از تصمیمات گرفته شده توسط آن احساس رضایت بیشتری می‌کردند، احتمال بیشتری داشت که باور کنند، یک الگوریتم برتر است و احتمال بیشتری داشت که در آینده از آن استفاده کنند.

We don’t need to understand the intricate inner workings of AI systems, but if people are given a degree of <strong>responsibility</strong> for how they are implemented, they will be more willing to accept AI into their lives.
ما نیازی به درک عملکرد درونی پیچیده سیستم‌های هوش مصنوعی نداریم، اما اگر <strong>مسئولیت</strong> نحوه پیاده‌سازی آنها، به افراد داده شود، تمایل بیشتری به پذیرش هوش مصنوعی در زندگی خود خواهند داشت.


Questions & answers

Questions 27-32

Reading Passage 3 has six sections, A-F.
Choose the correct heading for each section from the list of headings below.
Write the correct number, i-viii, in boxes 27-32 on your answer sheet.

 

List of Headings

i       An increasing divergence of attitudes towards AI
ii      Reasons why we have more faith in human judgement than in AI
iii     The superiority of AI projections over those made by humans
iv     The process by which AI can help us make good decisions
v      The advantages of involving users in AI processes
vi     Widespread distrust of an AI innovation
vii    Encouraging openness about how AI functions
viii   A surprisingly successful AI application

 

27   Section A
28   Section B
29   Section C
30   Section D
31   Section E
32   Section F

 

Question 33-35

Choose the correct letter, A, B, C or D.
Write the correct letter in boxes 33-35 on your answer sheet.

33   What is the writer doing in Section A?
A   providing a solution to a concern
B   justifying an opinion about an issue
C   highlighting the existence of a problem
D   explaining the reasons for a phenomenon

 

34   According to Section C, why might some people be reluctant to accept AI?
A   They are afraid it will replace humans in decision-making jobs.
B   Its complexity makes them feel that they are at a disadvantage.
C   They would rather wait for the technology to be tested over a period of time.
D   Misunderstandings about how it works make it seem more challenging than it is.

 

35   What does the writer say about the media in Section C of the text?
A   It leads the public to be mistrustful of AI.
B   It devotes an excessive amount of attention to AI.
C   Its reports of incidents involving AI are often inaccurate.
D   It gives the impression that AI failures are due to designer error.

 

Questions 36-40

Do the following statements agree with the claims of the writer in Reading Passage 3?

In boxes 36-40 on your answer sheet, write

YES                  if the statement agrees with the claims of the writer
NO                   if the statement contradicts the claims of the writer
NOT GIVEN    if it is impossible to say what the writer thinks about this

 

36   Subjective depictions of AI in sci-fi films make people change their opinions about automation.
37   Portrayals of AI in media and entertainment are likely to become more positive.
38   Rejection of the possibilities of AI may have a negative effect on many people’s lives.
39   Familiarity with AI has very little impact on people’s attitudes to the technology.
40   AI applications which users are able to modify are more likely to gain consumer approval.

 

Answers

27   iii
28   vi
29   ii
30   i
31   vii
32   v
33   C
34   B
35   A
36   NO
37   NOT GIVEN
38   YES
39   NO
40   YES


نظرات کاربران

هنوز نظری درج نشده است!