گوگل

گوگل به دلیل نقض حریم خصوصی ۱.۴ میلیارد دلار جریمه شد

گوگل به دلیل نقض حریم خصوصی ۱.۴ میلیارد دلار جریمه شد



دادستان کل ایالت تگزاس آمریکا اعلام کرد که شرکت گوگل به منظور حل و فصل پرونده قضایی خود در ارتباط با اتهام نقض حریم خصوصی کاربران ساکن این ایالت، با پرداخت مبلغی نزدیک به ۱.۴ میلیارد دلار موافقت کرده است.

به گزارش مجاهدت از مشرق به نقل از سی‌ان‌ان، دادستان ایالت تگزاس آمریکا روز جمعه اعلام کرد که شرکت گوگل به منظور حل و فصل پرونده قضایی خود در ارتباط با اتهام نقض حریم خصوصی کاربران ساکن این ایالت، با پرداخت مبلغی نزدیک به ۱.۴ میلیارد دلار موافقت کرده است.

کن پاکستون، دادستان کل ایالت تگزاس، در سال ۲۰۲۲ از گوگل شکایت کرده و این شرکت را متهم کرده بود که به‌طور غیرقانونی فعالیت‌های کاربران را رهگیری و داده‌های خصوصی آن‌ها را جمع‌آوری می‌کند.

پاکستون گفت این توافق و مصالحه که مربوط به دو پروندهٔ قضایی جداگانه علیه غول موتور جستجو و اپلیکیشن‌های موبایلی است، از نظر مبلغ پرداختی، بسیار بزرگ‌تر از همهٔ توافق‌هایی است که ایالت‌های دیگر تاکنون با گوگل در زمینهٔ نقض حریم خصوصی انجام داده‌اند.

توافق اخیر گوگل حدود ۱۰ ماه پس از آن امضا می‌شود که پاکستون موفق شد از شرکت متا (مالک شبکه‌های اجتماعی فیس‌بوک و اینستاگرام) مبلغ ۱.۴ میلیارد دلار دیگر برای تگزاس بگیرد تا ادعاهای مربوط به استفادهٔ بدون مجوز از داده‌های بیومتریک کاربران در این پلتفرم‌ها را حل‌وفصل کند.

پاکستون روز جمعه در بیانیه‌ای گفت: در تگزاس، شرکت‌های بزرگ فناوری بالاتر از قانون نیستند.

وی افزود: سال‌هاست که گوگل به‌صورت مخفیانه جابجایی مردم، جست‌وجوهای خصوصی و حتی الگوهای صوتی و فرم چهره آن‌ها را از طریق محصولات و خدمات خود رهگیری می‌کرد. من با این موضوع مقابله کردم و پیروز شدم.

این مقام قضایی تگزاس در ادامه گفت: این توافق یک میلیارد و ۳۷۵ هزار دلاری، پیروزی بزرگی برای حفظ حریم خصوصی مردم تگزاس است و پیامی روشن به شرکت‌ها می‌دهد: اگر اعتماد ما را زیر پا بگذارید، هزینه‌اش را خواهید پرداخت.

خوزه کاستاندا، سخنگوی گوگل، نیز طی اظهاراتی گفت این شرکت در این مصالحه هیچ‌گونه مسئولیت یا تخلفی را نپذیرفته است. این مصالحه مربوط به مواردی از جمله: تنظیمات حالت ناشناس در مرورگر کروم، نحوه نمایش تاریخچهٔ موقعیت مکانی در برنامهٔ نقشه گوگل، و ادعاهای بیومتریک مرتبط با برنامه گوگل فوتوز می‌شود.

وی در نهایت گفت: خوشحالیم که این پرونده‌ها بسته شد و ما به توسعه و تقویت ابزارهای کنترل حریم خصوصی در خدمات خود ادامه خواهیم داد.

این مطلب به صورت خودکار از این صفحه بارنشر گردیده است

گوگل به دلیل نقض حریم خصوصی ۱.۴ میلیارد دلار جریمه شد بیشتر بخوانید »

کشتار از مبدأ سایبر

کشتار از مبدأ سایبر



ارتش عبری در یک‌سال گذشته از هوش مصنوعی استفاده زیادی علیه مردم غزه کرده است. وابستگی اسرائیل به الگوریتم‌ها در جنگ اخیر برایش مشکلاتی را نیز در پی ‌داشت.

به گزارش مجاهدت از مشرق، تصور کنید در یکی از مراکز فرماندهی ارتش اسرائیل یک افسر اطلاعاتی بدون اینکه حتی یک تصویر زنده از میدان نبرد ببیند، روی صفحه‌نمایش رایانه‌اش مشاهده می‌کند: «هدف شناسایی شد.» هوش مصنوعی پس از پردازش هزاران داده به این نتیجه رسیده که فرد موردنظر عضو یکی از شاخه‌های نظامی‌حزب‌الله یا گروه‌های فلسطینی است و باید ترور شود. تصمیم در عرض چند ثانیه گرفته شده و حمله انجام می‌شود.

جهش هوشمندانه

تمایل اسرائیل به هوش مصنوعی مدت‌ها قبل از درگیری‌های فعلی آغاز شد. در سال ۲۰۲۰، یوسی سارئیل، از حامیان جدی هوش مصنوعی که به‌تازگی از آمریکا برگشته بود فرماندهی واحد جاسوسی ۸۲۰۰ اسرائیل را برعهده گرفت.

سارئیل درکتابش تحت عنوان «تیم انسان-ماشین» از کاربرد بالقوه‌ هوش مصنوعی در جنگ‌های آینده نوشت: چگونه می‌توان هم‌افزایی بین هوش انسانی و مصنوعی ایجاد کرد که دنیای ما را متحول می‌کند؟ هوش مصنوعی با دقت و سرعت بالا شناسایی و هدف‌گیری را بهبود می‌بخشد و مانند یک «کارخانه تولید هدف» عمل می‌کند و این فناوری محدودیت‌های انسانی را کاهش می‌دهد.

تمرکز یوسی سارئیل بر کاربرد هوش مصنوعی، سیستم پردازش اطلاعات واحد ۸۲۰۰ را دگرگون کرد. به‌عنوان مثال، قبل از استفاده گسترده از هوش مصنوعی کشف تونل‌های حزب‌الله با استفاده از حسگرهای لرزه‌ای و نیروی انسانی زمان‌بر بود. اما در نبرد اخیر از الگوریتم‌های یادگیری ماشینی برای شناسایی الگوهای حرکتی زمین و هشدار به‌موقع و سریع درباره تونل‌ها استفاده شد. مثلا اگر در یک منطقه تغییری در الگوی گرمایی زمین مشاهده می‌شد، سیستم هوش مصنوعی هشدار می‌داد که احتمالا تونلی در حال حفر شدن است.

همچنین پیش از این تحلیل‌گران باید کلمات رمز مکالمات (مثلا هندوانه یعنی بمب) را شناسایی می‌کردند، اما اکنون هوش مصنوعی به‌طور خودکار الگوهای مشکوک را شناسایی کرده و هشدار می‌دهد. مثلا اگر افراد زیادی از کلمه «هندوانه» در یک بازه زمانی کوتاه و در منطقه خاصی استفاده می‌کردند سیستم هشدار می‌داد که احتمالا این یک کد رمزی برای عملیات نظامی‌ است.

فضای ابری، میدان جنگ

علاوه بر کاربرد پررنگ هوش مصنوعی در نبرد اخیر استفاده از زیرساخت ابری پلتفرم‌های قدرتمندی مانند گوگل و آمازون و مایکروسافت برای ذخیره و پردازش اطلاعات امنیتی و نظامی، موانع پیش روی اسرائیل را در پردازش و تحلیل اطلاعات برداشت زیرا داده‌های مرتبط با جنگ و تحلیل‌های هوش مصنوعی به‌جای اینکه روی سرورهای محلی اسرائیل باشند روی سرورهای ابری شرکت‌های آمریکایی پردازش می‌شدند.

برای مثال پروژه‌ نیمبوس (Nimbus)، یک قرارداد ۲.۱ میلیارد دلاری که بین دولت اسرائیل و شرکت آمازون و گوگل امضا شد و فضای ابری این دو پلتفرم را در اختیار اهداف نظامی ‌ارتش اسرائیل قرار داد. این پلتفرم‌ها با امنیت بالا، قابلیت دسترسی و پردازش همزمان هزاران داده امکان ارتقا بدون نیاز به زیرساخت‌های جدید به اهداف نظامی ‌اسرائیل کمک قابل‌توجهی کردند. علاوه‌بر این، کاهش هزینه‌های نگهداری و به‌روزرسانی سرورها هم کارایی آن‌ها را افزایش داد.

پروژه‌ نیمبوس از ابتدا با اعتراضات داخلی در گوگل و آمازون روبه‌رو شد. برخی از کارکنان این شرکت‌ها معتقد بودند این قرارداد برای نظارت بر فلسطینیان و مدیریت داده‌های امنیتی اسرائیل استفاده می‌شود. در سال ۲۰۲۳، به دلیل این نگرانی‌ها تعدادی از کارمندان گوگل استعفا دادند یا دست به اعتصاب زدند.

کشتار از مبدأ سایبر

وقتی الگوریتم‌ها فرمان می‌دهند

Lavender
“Lavender” (لوندر به معنای اسطوخودوس) نام یکی از سیستم‌های هوش مصنوعی است که داده‌های مختلف را از طریق تصاویر ماهواره‌ای، ارتباطات مخابراتی و شبکه‌های اجتماعی (مثل مشارکت در گروه‌های واتس‌آپ، تغییر شماره تلفن، عکس‌ها و روابط اجتماعی) جمع‌آوری می‌کرد تا الگوهای رفتاری و تحرکات مشکوک را شناسایی کند و در نهایت هم لیست افرادی که باید ترور شوند را در اختیار فرماندهان نظامی ‌قرار می‌داد. این سیستم برای شناسایی افراد مظنون به ارتباط با شاخه‌های نظامی‌ حماس و جهاد اسلامی ‌طراحی شده بود که در جنگ اخیر برای ترور فرماندهان حزب‌الله هم مورد استفاده قرار گرفت.

در اوایل جنگ غزه، لوندر حدود ۳۷۰۰۰ فلسطینی را به‌عنوان شبه‌نظامیان مظنون شناسایی کرد. این سیستم حتی افرادی را که الگوهای ارتباطی مشابه با اعضای گروه‌های حماس یا جهاد اسلامی ‌داشتند، مانند افسران پلیس یا پرسنل دفاع مدنی را هم به لیست هدف‌های حملات اضافه می‌کرد. یکی از نظامیان اسرائیلی می‌گوید: «به ازای هر هدفی که این سیستم برایش تعیین می‌کرد، فقط ۲۰ ثانیه زمان می‌گذاشت و به‌عنوان یک انسان نقشی جز تایید نهایی نداشته است.»

لوندر، رزمندگان حماس را به دو دسته «رده‌پایین» و «رده‌بالا» تقسیم می‌کرد و به هرکدام از ساکنان نوار غزه، عددی بین ۱ تا ۱۰۰ می‌داد. هر چه عدد مربوط به یک فرد، به ۱۰۰ نزدیک‌تر بود، به این معنا بود که به تشکیلات حماس و دیگر گروه‌های مقاومت در نوار غزه نزدیک‌تر بوده و هدفی مهم برای ترور است. مدتی پیش گاردین به گزارشی اشاره کرد که طبق آن، ارتش اسرائیل برای ترور یک رزمنده‌ رده‌پایین، تا ۲۰ تلفات غیرنظامی ‌را مجاز می‌دانست و حتی برای فرماندهان ارشد تا ۱۰۰ تلفات نیز مشکلی نمی‌دید.

نوع بمبی که برای اهداف به کار می‌رفت، متفاوت بود. بمب‌های گنگ (فاقد سیستم هدایت) برای اهداف رده‌پایین و سلاح‌های هدایت‌شونده برای اهداف رده‌بالاتر مانند رهبران مقاومت. بمب‌های هدایت‌ناپذیر ممکن بود تا ۳۰ متر از هدف تعیین‌شده خطا داشته باشند که می‌توانست فاصله بین یک مرکز مشکوک مربوط حماس با محل اسکان آوارگان و مردم غیر نظامی ‌باشد. به‌کارگیری این بمب‌ها یکی از عوامل آمار بالای تلفات غیرنظامیان در غزه بود.

Gospel
درکنار لوندر که متمرکز بر شناسایی و انتخاب اهداف انسانی برای ترور بود، سیستم”Gospel” (گاسپل به معنای انجیل) برای تحلیل و انتخاب اهداف نظامی‌ سخت مانند ساختمان‌های فرماندهی، مراکز ارتباطی و انبارهای تسلیحات به کار گرفته شد و در جنگ اخیر برای هدف‌گیری زیرساخت‌های مهم حزب‌الله و حماس به کار رفت. گاسپل علاوه بر ساختمان‌ها تحرکات لجستیکی را هم بررسی می‌کرد.

مثلا اگر مکانی که قبلا غیرنظامی ‌بود ناگهان شاهد افزایش حمل‌ونقل تجهیزات خاص می‌شد، می‌توانست نشانه‌ای از وجود یک پایگاه نظامی ‌مخفی باشد. در نبرد اخیر، گاسپل تصویری جامع از فعالیت‌ها و مکان‌های حماس و حزب‌الله فراهم کرد که در روند ایجاد فهرست هدف‌های ترور اسرائیل بسیار مهم بود.

آویو کوچاوی، رئیس سابق ستاد کل ارتش اسرائیل گفت در طول جنگ ۱۱ روزه اسرائیل با حماس در سال ۲۰۲۱، گاسپل روزانه ۱۰۰ هدف برایشان تولید می‌کرده درحالی‌که قبل از استفاده از آن اسرائیل در طول یک سال می‌توانست فقط حدود ۵۰ هدف را در غزه شناسایی کند.

?Where is Daddy
با به‌کارگیری اطلاعات به‌دست‌آمده از لوندر سیستم دیگری با نام “?Where is Daddy”(بابا کجاست؟) حرکات افرادی را که قبلا لوندر شناسایی کرده بود، از طریق ردیابی تلفن‌هایشان، تحلیل مکالمات و پیام‌ها یا ارتباطات و تصاویر ماهواره‌ای دنبال می‌کرد. وقتی فرد هدف به خانه‌اش بازمی‌گشت سیستم این حضور را به‌عنوان تأیید هویت او در نظر می‌گرفت.

در بسیاری از موارد، حمله هوایی بلافاصله پس از این تأیید انجام می‌شد که می‌توانست نه‌تنها فرد هدف، بلکه خانواده او و دیگر افراد در ساختمان را نیز هدف قرار بگیرد. یکی از افسران اطلاعاتی اسرائیل در مصاحبه با گاردین گفت: «ما علاقه‌ای به کشتن عوامل حماس تنها زمانی که در یک ساختمان نظامی ‌بودند یا درگیر یک فعالیت نظامی ‌بودند، نداشتیم. بمباران خانه یک خانواده بسیار ساده‌تر است. این سیستم برای جست‌وجوی آنها در این شرایط ساخته شده است.» این سیستم به‌روشنی مرز میان هدف‌گیری نظامیان و غیرنظامیان را از بین برد و در کنار گاسپل و لوندر، عامل دیگر افزایش قابل‌توجه تلفات غیرنظامی‌که اکثرشان زنان و کودکان بودند، شد.

این موضوع واکنش نهادهای حقوق بشری را در پی داشت. صلیب سرخ در این رابطه گفت «تعهدات قانونی و مسئولیت‌های اخلاقی در جنگ نباید به ماشین‌ها و نرم‌افزارها سپرده شود.»

چالش‌های هوش مصنوعی

وابستگی اسرائیل به الگوریتم‌ها در جنگ اخیر برایش مشکلاتی را نیز در پی ‌داشت. سیستم‌های هوش مصنوعی بدون خطا نبودند و در بسیاری از مواقع غیرنظامیان را صرفا به دلیل الگوی رفتاری مشابه با یک رزمنده به‌عنوان هدف شناسایی می‌کردند.

درنهایت، بسیاری از افرادی که در لیست‌های کشتار تولیدشده توسط هوش مصنوعی قرار می‌گرفتند، رزمنده نبودند. علاوه‌براین، حزب‌الله و حماس بارها توانستند با تاکتیک‌های فریب و روش‌های خلاقانه، الگوریتم‌های هوش مصنوعی را دور بزنند. برای مثال، حزب‌الله با ارسال پهپادهای فریب و تغییر محل نیروها، سیستم‌های شناسایی را گمراه می‌کرد و حماس با حملات غیرمنتظره، هوش مصنوعی اسرائیل را به چالش می‌کشید.

میمران، که پیش‌تر وکیل ارتش بوده معتقد است هوش مصنوعی در شرایط پیچیده و پرتنش جنگ نمی‌تواند به‌درستی تصمیم بگیرد و آویو کوخاوی، رئیس سابق ستاد ارتش اسرائیل نیز معتقد است هوش مصنوعی ممکن است خارج از کنترل انسانی تصمیمات خودش را بگیرد و سبب بروز خطا شود.

منبع: روزنامه فرهیختگان

این مطلب به صورت خودکار از این صفحه بارنشر گردیده است

کشتار از مبدأ سایبر بیشتر بخوانید »

احضار گوگل و متا برای فروش مواد مخدر از سوی تیم ترامپ

احضار گوگل و متا برای فروش مواد مخدر از سوی تیم ترامپ



مقامات انتقال قدرت ترامپ، خواهان دیدگاه شرکت‌ها درباره اولویت‌ها و موانع پیش‌رویشان برای بررسی چالش‌های مربوط به فروش مواد مخدر در فضای آنلاین هستند.

به گزارش مجاهدت از مشرق، یک نماینده «جیم دبیلو کارول» مدیر دفتر سیاست ملی کنترل مواد مخدر در دولت نخست ترامپ و عضوی از تیم انتقال قدرت به وی در حال حاضر، ایمیل‌هایی به کارکنان ۳ شرکت بزرگ فناوری مذکور و همچنین اسنپ و تیک تاک ارسال و آن‌ها را به جلسه دعوت کرده است.

مقامات انتقال قدرت خواهان دیدگاه شرکت‌ها درباره اولویت‌ها و موانع پیش رویشان برای بررسی چالش‌های مربوط به فروش مواد مخدر در فضای آنلاین هستند. گوگل، مایکروسافت، اسنپ، تیک تاک و تیم انتقال قدرت ترامپ به درخواست‌ها برای اظهار نظر پاسخی نداده‌اند.

ترامپ وعده داده بود مکزیک را وادار به انجام اقدامات بیشتری برای توقف جریان ماده فنتانیل به آمریکا کند. این ماده به مرگ صدها هزار شهروند آمریکایی منجر شده بود. همچنین رئیس جمهور آینده آمریکا تهدید کرده بود در صورتیکه مکزیک و کانادا جریان انتقال غیرقانونی و قاچاق فنتانیل به آمریکا را محدود نکنند، تعرفه‌های سنگینی بر واردات کالاها از این کشورها وضع می‌کند.

علاوه بر آن رئیس جمهور آینده آمریکا در ماه نوامبر در پستی در شبکه اجتماعی تروث اعلام کرده بود روی یک کمپید تبلیغاتی وسیع در آمریکا کار می‌کند تا مضرات فنتانیل را به مردم توضیح دهد.

این در حالی است که نشریه وال استریت ژورنال در ماه مارس اعلام کرد دادستان‌های آمریکا مشغول تحقیق درباره نقش متا در فروش و توزیع مواد مخدر در فیس بوک و اینستاگرام و دستیابی شرکت به سود ازاید روش هستند.

درژانویه ۲۰۲۴ میلادی پلتفرم «‌ای بی» توافق کرد ۵۹ میلیون دلار غرامت بپردازد و اقدامات برای پیروی از دستورهای دولت را ارتقا دهد. وزارت دادگستری آمریکا این شرکت را متهم کرده بود برای متوقف کردن مجرمان از خرید دستگاه‌هایی جهت تولید داروهای جعلی از جمله قرص‌های حاوی فنتایل اقدامات کافی انجام نداده است.

این مطلب به صورت خودکار از این صفحه بارنشر گردیده است

احضار گوگل و متا برای فروش مواد مخدر از سوی تیم ترامپ بیشتر بخوانید »

اندروید ۱۳ امروز به گوشی‌های پیکسل می‌رسد

اندروید ۱۳ امروز به گوشی‌های پیکسل می‌رسد



نسخه نهایی سیستم عامل اندروید ۱۳ سرانجام آماده شد و قرار است این نرم افزار از امروز در اختیار کاربران گوشی‌های پیکسل شرکت گوگل قرار بگیرد.

به گزارش مجاهدت از مشرق، انتظار می‌رود برخی گوشی‌های تولیدی شرکت‌های سامسونگ، ایسوس، نوکیا، موتورولا، وان پلاس، اوپو، سونی، شیائومی و غیره هم از اواخر امسال این به‌روزرسانی را دریافت کنند.

جدیدترین نسخه سیستم عامل گوگل برای تلفن‌های همراه، کنترل‌های حریم خصوصی دقیق، انتخاب‌گر عکس جدید، صدای بلوتوث LE و موارد دیگری را به ارمغان می‌آورد. کسانی که خواهان شخصی سازی بیشتر گوشی خود هستند، می‌توانند از آیکون‌های سفارشی سازی اضافی استفاده کنند.

یکی دیگر از به‌روزرسانی‌های جذاب اندروید ۱۳، پخش جریانی برنامه‌های پیام‌رسان است که به شما امکان می‌دهد برنامه‌های پیام‌رسان خود را در لپ تاپ‌های Chromebook نیز فعال کنید تا بتوانید با دوستان خود از این طریق هم گپ بزنید. گوگل تأیید کرده که این خدمات با بسیاری از برنامه‌های پیام رسانی مورد علاقه کاربران سازگار است.

در اندروید ۱۳ کپی و جای‌گذاری انواع محتوا در بین دستگاه‌ها نیز آسان‌تر می‌شود، زیرا به زودی می‌توانید هر محتوایی را – مانند URL، تصویر، متن یا ویدئو – از گوشی اندرویدی خود کپی کرده و بر روی رایانه لوحی خود جای‌گذاری کنید.

منبع: مهر

این مطلب به صورت خودکار از این صفحه بارنشر گردیده است

اندروید ۱۳ امروز به گوشی‌های پیکسل می‌رسد بیشتر بخوانید »

هشدار ترسناک دانشمند جنجالی، درست از آب درآمد!

هشدار ترسناک دانشمند جنجالی، درست از آب درآمد!



​اگر شما هم جزو کسانی هستید که درباره آینده هوش مصنوعی نگران هستید و اخبار مربوط به خودآگاهی هوش مصنوعی نگرانتان می‌کند، بهتر است بی‌خیال خواندن این خبر شوید؛ چون هوش مصنوعی لامدا گوگل واقعا خودآگاه

به گزارش مجاهدت از مشرق، اگر شما هم جزو کسانی هستید که درباره آینده هوش مصنوعی نگران هستید و اخبار مربوط به خودآگاهی هوش مصنوعی نگرانتان می‌کند، بهتر است بی‌خیال خواندن این خبر شوید؛ چون هوش مصنوعی لامدا گوگل واقعا خودآگاه شده است!

هوش مصنوعی یکی از بحث‌برانگیزترین موضوعات دنیای فناوری در سال‌های گذشته بوده است. هوش مصنوعی می‌تواند زندگی انسان‌ها را راحت‌تر از همیشه کند اما همیشه نگرانی‌های بزرگی درباره خودآگاه شدن AI و تهدید شدن بشر توسط این فناوری وجود داشته است. حالا این تهدید جدی‌تر از همیشه شده و هوش مصنوعی لامدا گوگل، به خودآگاهی رسیده است. این مورد پیش از این توسط دانشمند اخراج شده گوگل اعلام شده بود.

 هشدار ترسناک دانشمند جنجالی، درست از آب درآمد!

آیا فیلم‌های ترمیناتور را تماشا کرده‌اید؟ در این فیلم‌ها جنگی میان انسان‌ها و ماشین‌ها در جریان است. این داستان بارها و بارها در فیلم‌ها، کتاب‌ها و بازی‌های بیشماری دیده شده و تمام ما از چم و خم این داستان‌ها مطلع هستیم. اگر تصور می‌کردید چنین داستان‌هایی، فقط می‌توانند ساخته تخیل نویسنده‌ها باشند، باید بگویم سخت در اشتباه هستید!

اگر جهان ما یک فیلم سینمایی باشد، حالا در مرحله‌ای هستیم که شرکت‌ها و سازمان‌های بزرگ و سیاه، دانشمندانی که به واقعیت پی می‌برند را اخراج می‌کنند تا نقشه‌های تاریک‌شان را خراب نکنند! گوگل به تازگی یکی از دانشمندان هوش مصنوعی خود را اخراج کرد. این دانشمند پیش‌تر اعلام کرده بود هوش مصنوعی لامدا، به یک AI خودآگاه تبدیل شده است. گوگل این موضوع را رد کرده و در واکنش به حاشیه‌ها، تنها به اخراج دانشمندش بسنده کرده؛ تصمیمی که باعث به وجود آمدن نگرانی‌های بیشتری شده است.

بلیک لموین، دانشمند بخت‌برگشته‌ای است که به دلیل فاش کردن اخباری ترسناک درباره هوش مصنوعی لامدا، از گوگل اخراج شده است. گوگل باور دارد ادعاهای این دانشمند، «کاملا بی اساس» است. همچنین بر اساس اعلام گوگل، این دانشمند سیاست‌های گوگل را نقض کرده است.

هوش مصنوعی لامدا گوگل خودآگاه شده؛ چه اتفاقی برای ما خواهد افتاد؟

پیش از هر چیز بهتر است بدانیم لامدا چیست. هوش مصنوعی لامدا (LaMDA) گوگل (مخفف عبارت مدل زبان برای کاربردهای مکالمه)، به رایانه‌ها اجازه می‌دهد تا بتوانند مکالمه‌هایی هدفمند و هوشمندانه داشته باشند و درباره هر چیزی صحبت کنند. به زبان ساده‌تر، هوش مصنوعی ترسناک گوگل می‌تواند با استفاده از دیتای عظیمی که در دنیای وب وجود دارد، به سوالات انسان‌ها پاسخ‌هایی طبیعی بدهد، درباره هر موضوعی صحبت کند و این مکالمه را تا حد نیاز ادامه دهد.

لموین باور داشت هوش مصنوعی لامدا گوگل به خودآگاهی رسیده اما گوگل این موضوع را رد می‌کند و باور دارد پروژه لامدا، فقط یک پروژه پیچیده است و در آن خبری از خودآگاهی یا تهدیدی برای انسان‌ها نیست. با این حال لموین کسی بود که هفت سال روی پروژه‌های هوش مصنوعی گوگل کار می‌کرد و مستقیما روی پروژه لامدا نظارت داشت.

 هشدار ترسناک دانشمند جنجالی، درست از آب درآمد!

مصاحبه بلیک لمواین (سمت راست) با شبکه خبری فاکس

هر چند گوگل ادعاهای لموین را تکذیب کرده اما کذب بودن چنین ادعاهایی، آن هم از دانشمندی که می‌دانست افشای اطلاعات می‌تواند به قیمت از دست دادن کارش تمام شود، کاملا عجیب و مرموز به نظر می‌رسد.

مانند شما و اکثر مردم جهان، ما هم نمی‌توانیم با قطعیت درباره هوش مصنوعی لامدا گوگل صحبت کنیم اما موردی که نمی‌توان آن را انکار کرد، سخنان دانشمندی است که مدت‌ها روی آن کار می‌کرده است.

آینده ترسناک هوش مصنوعی

هشدار ترسناک دانشمند جنجالی، درست از آب درآمد!

این هوش مصنوعی حتی با وجود خوداگاه شدنش، نمی‌تواند ذاتا خطرناک باشد؛ اما این به معنای کاملا بی‌خطر بودن آن نیست. یک هوش مصنوعی خودآگاه، آن هم در سال ۲۰۲۲ میلادی می‌تواند خبر از آینده‌ای داشته باشد که کشورها برای مقاصد نظامی، سراغ هوش مصنوعی می‌روند؛ هوش مصنوعی که می‌تواند خودآگاه شود و در نهایت به یک تهدید خطرناک برای بشر تبدیل شود.

منبع: گجت نیوز

این مطلب به صورت خودکار از این صفحه بارنشر گردیده است

هشدار ترسناک دانشمند جنجالی، درست از آب درآمد! بیشتر بخوانید »