اگر قسمت جمعیِ عبارت سلاحهای کشتار جمعی (سلاحهای نابودی جمعی) را از mass به math تغییر دهیم، عنوان این کتاب درست میشود. نویسنده دکترای ریاضی از دانشگاه هاروارد دارد و مدتی استاد دانشکدهٔ ریاضی کالج دخترانهٔ بارناردِ دانشگاه کلمبیا بوده است. او بعد از ورود به شرکتهای سرمایهگذاری و کار به عنوان تحلیلگر داده بر اساس مدلهای ریاضی به واقعیتهای تلخی از مشکلاتی که این سامانههای ریاضیاتی بر سر جامعه آوردهاند پی میبرد. این کتاب تلاشی است برای نشان دادن این مشکلات. از این نظر این کتاب کاری بسیار مثالزدنی انجام داده است ولی متأسفانه مشکل بزرگ این کتاب، که البته نمیشود بر نویسندهای که تخصصش ریاضی است خرده گرفت، این است که صرفاً به مشکلات معلول پرداخته است و طوری تصویر ایجاد کرده که کسی که روشهای رایانهای آشنا نباشد مشکل را در معلول یعنی روشهای رایانهای ببیند نه در علت. به قول دکتر داوری اردکانی، انسانِ متجدد جهان را به شکل ریاضی مدل کرده است و به قول خودم! حالا با آمدن پردازندههای فوق سریع این مدلسازی بسیار سریع و هوشمندانه انجام میشود. نویسنده متأسفانه در پنهان کردن عقاید خود در مسائلی مانند هولوکاست یا حقوق همجنسبازها موفق نیست و خیلی واضح عقاید شخصی خود را به عنوان اخلاق به مخاطب حقنه میکند. البته باز یادآوری میکنم که چنین کتابهایی خواندنش لازم است، خاصه برای امثالِ ما که شاید در برابر سرعت گسترش فناوری با دیدی خوشبینانه آرزوی رسیدن کشورمان به سطح فناوری آمریکا را داریم، بی آنکه بدانیم این فناوریها وقتی در سایهٔ نظام سرمایهداری قرار بگیرند خود باعث گسترش سریعتر تبعیض و بیعدالتی میشوند. خلاصهٔ مطلب آن که از این کتاب نباید انتظار ریشهیابی یا طرح راه حل داشته باشیم ولی به عنوان تجمیعی از مشکلات ایجادشده در استفاده از روشهای رایانهای و ریاضیاتی بسیار خواندنی است.
مطالبی که از الان مینویسم خلاصهٔ مضمونی و نه لزوماً واژه به واژه از کتاب است:
ردهبندی دانشگاهی یو.اس.نیوز [بر اساس روشهای ریاضیاتی] باعث رقابت ناسالم در جهت یک هدف شده است حال آن که باید تنوع در اهداف در دانشگاههای مختلف باشد. مثلاً یکی از معیارها فضای تفریحی و آموزشی دانشگاه است که باعث ترغیب دانشگاهها به ساخت فضاهای آموزشی جدید و در نتیجه افزایش ۵۰۰ درصدی شهریهٔ تحصیلات عالی طی سالهای ۱۹۸۵ تا ۲۰۱۳ شده است و این افزایش چهار برابر تورم است. این مشکلات به اینجا ختم نمیشود. مثلاً در ردهبندی دانشگاهی دنیا، دانشکدهٔ ریاضی دانشگاه ملک عبدالعزیز در ردهبندی جهانی هفتم قرار دارد (بهتر از ام.آی.تی. و کمبریج). یعنی این که الگوریتمها را میشود بازی داد. دانشگاه سعودی میزبان بسیاری از ریاضیدانان مطرح و پرارجاع شده است و به آنها حقوق ۷۲ هزار دلاری در ازای عنوان استاد الحاقی (فرعی) دانشگاه داده. قرارداد بر این مبنا بود که این ریاضیدانان سالی سه هفته به عربستان سعودی بیایند و در ازای آن در مقالههایشان وابستگی دانشگاهیشان را دانشگاه ملک عبدالعزیز بگذارند (صص ۵۸-۶۶).
به خاطر اهمیت دادن به درآمدزایی دانشگاهها در رشتههای مهندسی و پزشکی در ردهبندیها، بیشتر دانشگاهها چارهای جز کوچک کردن دانشکدههای هنزهای زیبا و آموزش و علوم اجتماعی نداشتند چون معلمها کمتر از مهندسها، شیمیدانها و علوم کامپیوتریها درآمدزا هستند. (ص ۶۶)
قربانی اصلیِ ردهبندهها اکثریت کمدرآمد و متوسط آمریکایی هستند که قدرت هزینهٔ چند هزار دلاری برای مشاوره و حضور در دورههای آمادگی ورود به دانشگاه را ندارند. نتیجه یک نظام آموزشی است که به مرفهین تمایل پیدا کرده است (ص ۶۵). به همین دلیل، بسیاری از مؤسسات آموزشی انتفاعی از ناچاری فقرا استفاده میکنند و آنها را در دام تبلیغات دروغین دانشگاههایشان میاندازند؛ دانشگاههایی که نه سطح آموزشی خوبی دارند و نه فرصت شغلی مناسبی برایشان وجود دارد و تنها فقرا را بیشتر در باتلاق قرض و وام فرومیبرد. این تبلیغات معمولاً هدفگذاریشده و به سمت کدپستیهای نواحی فقیرنشین است (صص ۷۶-۷۷). نتیجهٔ نهایی این اتفاقات چیزی نیست جز این که ۴۰ درصد از جمعیت آمریکا با تنگنای معیشتی مواجهند و ۲۰ درصد از جمعیت به ۸۹ درصد از منابع دسترسی داشته باشند (صص ۸۰-۸۱). حال آن که مثلاً رئیس دانشگاه انتفاعی فونیکس آریزونا در سال ۲۰۱۱ حقوقش ۲۵ میلیون دلار بوده است (ص ۸۱). در حالی که بسیاری از فقرا مجبورند تا حدود ۵۷۴ درصد سود برای وامهای کوتاهمدت تحصیلیشان بدهند (ص ۸۲).
پیدا کردن احتمال جرم و جنایت هم بینصیب از پیشبینیهای ریاضی نبوده است. از آنجا که سابقهٔ زندانی سیاهان و لاتینوها بیشتر بوده، حدود ۸۵ درصد از بازرسیها خیابانی برای آنها بوده است حال آن که تنها در یکدهم درصد موارد آنها مجرم بودهاند. نتیجه آن که زندانها بیشتر و بیشتر از آنها پر میشود و سامانههای پیشبینیگر ریاضیاتی مجدداً آنها را مورد حمله قرار میدهند (صص ۹۲-۹۳).
بیشتر سامانههای استخدامی رایانهای شدهاند. طبق تحقیقی که دو محقق آمریکایی انجام دادند، آنها رزومههای غیرواقعی افراد زیادی را به شرکتها استخدامی فرستادند. آنهایی که اسمشان به سفیدپوستها میخورده است، ۵۰ درصد بیشتر پاسخ گرفتهاند (صص ۱۱۲-۱۱۳).
مدلهای تخصیص منابع انسانی اساسش کم کردن کارمندان و بیشتر کردن ساعات مفید کار است. همین مسأله باعث شده است که ساعات شناور کار برای افراد با حقوق پایین باشد و آنها نظم زندگیشان به هم بخورد. علاوه بر این، میزان ساعت کارشان از حدی که بیمه به آنها تعلق بگیرد کمتر شده و حتی از بیمه نیز محروم شدهاند (صص ۱۲۳-۱۴۰).
در سال ۲۰۱۵، یک خانوار سفیدپوست آمریکایی به صورت متوسط ده برابر ثروتمندتر از یک خانوار سیاهپوست یا لاتین در آمریکا بوده است. در شصت سالگی این فاصله بیشتر نیز میشود و به یازده برابر میرسد (ص ۱۴۹). بر همین اساس، برنامههای رایانهای تخمین این که چقدر به کسی و با چه سودی وام پرداخت شود بر اساس همین دادهها از سیاهان و لاتینها بیشتر سود بانکی میگیرد و کمتر وام میدهد. کار حتی به جایی میرسد که بر اساس پیشینهٔ خرید از کدام مغازهها، که بر اساس تراکنشهای بانکی قابل رصد است، افراد به گروههای اقتصادی از نظر بازگشت وام و دیگر خدمات رفاهی تقسیم میشوند. کار فقط به همین جاها ختم نمیشود؛ بعضی از این برنامهها حتی از روی ویژگیهایی مانند داشتن یا نداشتن غلط املایی در فرمهای ثبتشده مخاطبشان را مورد ارزیابی قرار میدهند. قاعدتاً فقرا و مهاجرین کمتر تحصیلات دارند و بیشتر چنین اشتباهاتی را مرتکب میشوند (ص ۱۵۸). در فلوریدا، بزرگسالانی که هیچ سابقهای از خلاف رانندگی ندارند ولی امتیاز کارت اعتباریشان پایین است، سالانه به طور متوسط ۱۵۵۲ دلار بیشتر از رانندگانی با همان مشخصات ولی با سابقهٔ خلاف و امتیاز کارت اعتباری بالا هزینهٔ بیمه پرداخت میکنند (ص ۱۶۵). امتیاز کارت اعتباری خود تابعی است از وامهایی که قبلاً گرفته شده و پرداخت به موقع قرضهای اعتباری قبلی. لذا این اتفاق بر همه چیز حتی حق بیمه تأثیر میگذارد. در مورد خدماتی مانند بیمه کار دارد کمکم به جایی میکشد که در ازای قبول نکردن نصب جعبه سیاه در خودروهای شخصی باید پرداخت بیمهٔ بیشتری صورت بگیرد. حالا فرض کنید که کسی مجبور است از خیابانهایی رد بشود که محلهٔ خلافکاران است. از این جهت شرکت بیمه از روی اطلاعات جعبهٔ سیاه نصبشده در خودرو امتیاز کمتری به راننده میدهد و صرفاً بر اساس همین همسایگی با محلهٔ خلافها هزینهٔ بیمهٔ مشتری را بالا میبرد. فارغ از مسائل مالی، نصب چنین وسایلی در خودروهای شخصی به صورت بالقوه ناقض حقوق حریم خصوصی افراد است (صص ۱۷۰-۱۷۱). نقض حریم خصوصی تا جایی پیش میرود که شرکت داروخانههای زنجیرهای سی.وی.اس. از کارمندانش میخواهد که ریزِ اطلاعات چربی و قند و فشار خون و کلسترول را به شرکت گزارش بدهند و در صورت عدم گزارش ۶۰۰ دلار باید پرداخت کنند. این مسأله شاید هدف اولیهاش تشویق افراد به زیست تغذیهای سالم باشد ولی بسیاری از مؤلفهها را در نظر نمیگیرد؛ مانند چاقیِ طبیعی افراد مانند زنانی که چند بار بچهدار شدند یا به هر دلیلی چاق هستند. یا این که کسانی که به هر دلیلی معلولیتهای جزئی دارند از کار محروم میشوند. البته بررسیهای صورتگرفته نشان داده است که چنین سیاستهایی از سوی شرکتها به هیچ وقت منجر به کاهش چربی و کلسترول افراد نشده است و تنها اثر کوتاهمدت داشته است (صص ۱۷۶-۱۷۷).
سامانههای ریاضیاتی در وبسایتهای آنلاین کاربران را به صورت خاص مورد هدف قرار میدهند. تحقیقات نشان داده است که الگوریتمهای به کار گرفته شده در شرکتهایی مانند فیسبوک به صورت مستقیم بر تصمیمات افراد در خرید یا حتی انتخابات تأثیر مستقیم دارد (ص ۱۸۴). این مسأله به وضوح در اتفاق اخیر شرکت فیسبوک و کمبریج آنالیتیکا مشهود است (ص ۱۹۱).
گاف دموکراتیک انتخابات الکترال آمریکا باعث شده که بسیاری از این سامانهها بر روی ایالتهایی سرمایهگذاری کنند که همیشه رأیی لب مرزی دارند و بدین صورت رأی مردم را با استفاده از روشهای آماری و تبلیغات شخصیسازیشده مورد هدف قرار بدهند (ص ۱۹۶). البته این سامانههای ریاضیاتی گافهایی هم داشتهاند. مثلاً در سال ۲۰۱۶ و پویش انتخاباتی هیلاری کلینتون، نرمافزار پیشبینی میکند که در ایالتهای میشیگان و ویسکانسین برندهٔ قطعی انتخابات کلینتون خواهد بود و به همین خاطر کمتر روی آن ایالتها سرمایهگذاری کردند و نتیجه عکس آن چه که فکر میکردهاند شد. تناقض جایی آشکار میشود که مثلاً بیل کلینتون در سال ۱۹۹۶ ازدواج را فقط بین دو ناهمجنس به رسمیت میشناسد چون میخواهد رأی ایالاتی چون اوهایو و فلوریدا را به دست آورد ولی شرکتی مثل آیبیام از همجنسبازها حمایت میکند چون شرکتهای رقیبش مانند یاهو و آمازون از همجنسبازها حمایت کردهاند و آیبیام نمیخواهد از قافله عقب بماند خاصه آنکه بسیاری از نخبههای امروز کامپیوتر، مانند تیم کوک رئیس شرکت اپل، همجنسباز هستند (ص ۲۰۱) .
مشکلات بزرگ سامانههای ریاضی این است که برخلاف انسان که آیندهنگری و تطبیق سریع با شرایط دارد، آنها چنین امکانی را به دشواری به دست میآورند (صص ۲۰۳-۲۰۴). بنابراین این مدلهای ریاضی باید ابزار ما باشند نه ارباب ما (ص ۲۰۷). ممکن است ما بتوانیم با این ابزارهای ریاضی کمک به بهبود وضع جامعه کنیم، مثلاً بفهمیم چطور میشود به داد ۶۴۰۰۰ بیخانمان شهر نیویورک رسید و چقدر امکانات و فضا در اختیارشان قرار داد (ص ۲۱۴).
راه حل نهایی نویسنده نسبت زیادی با آزادیای ندارد که حداقل در حرف در جامعهٔ آمریکا مراد میشود و نویسنده احتمالاً همنظر با آنهاست، ندارد: نویسنده در صفجهٔ ۲۲۳ میگوید که پردازشهای الگوریتمی باید ارزشها و اخلاق را مانند فرایندهای انسانی در خود تعبیه کند، مانند کاری که فیسبوک در حذف پستهای مربوط به برهنگی یا داعش انجام داده است.