Понимание политических, этических и нормативных вопросов, лежащих в основе новых технологий

Content Team September 16, 2020

Share it :

Понимание политических, этических и нормативных вопросов, лежащих в основе новых технологий

Со слов Д-ра. Джошуа Эллула, Председателя?MDIA?и Директора DLT в Мальтийском Университете. Познакомьтесь с ним позже в этом году в осеннем выпуске журнала Block Magazine.

За последние годы мы стали свидетелями всплеска интереса (и шумихи) к искусственному интеллекту (ИИ), блокчейну, облачным вычислениям, наукам о данных и квантовым вычислениям и коммуникациям. Эти (и другие) технологии помогают формировать новый мир. Мир, который мог бы: (А) обеспечить большую автоматизацию задач, которые обычно требуют людей; (Б) обеспечить большую прозрачность и гарантии; (В) с минимальными первоначальными затратами; (Г) для разных доменов; (Q) на беспрецедентных скоростях и расстояниях; чтобы в конечном итоге (Y) принести пользу ВАМ.

Такие преимущества часто оглашаются, но недостаточно обсуждаются о ваше месте в этом новом мире. Далее обсудим? ряд вопросов, которые повлияют на общество.

Если вы технический специалист, вы, вероятно, хорошо понимаете, что нас ждет. Будете ли вы работать над основной разработкой таких технологий, требующей от вас потенциально проведения исследований для ознакомления с теоретическими основами, или если вы будете разрабатывать приложения с использованием этих технологий, вы, вероятно, ждете (или уже используете) новые фреймворки и библиотеки, избавляетесь от тонкостей технологий, позволяя вам сосредоточиться на приложении.

Однако один новый аспект, который потребуется от технических специалистов, чтобы делать все больше и больше, – это взаимодействие с профессионалами из других областей. Будь то обсуждение конкретных проблем, относящихся к соответствующей области бизнеса, или обсуждение со специалистами в области права относительно технических архитектурных вариантов и решений, которые могут потребовать выполнения (или оспаривания) различных нормативных требований и требований соответствия, или даже специалистов по этике и различных заинтересованных сторон в отношении вариантов реализации, когда дело доходит до областей приложений, которые по своей сути требуют этических соображений.

josh ellulПомимо технических специалистов, которые бесконечно работают над внедрением различных решений для автоматизации и улучшения различных задач и предоставления новых видов услуг, есть разные профессионалы. Такие профессионалы играют критически важную роль в обеспечении того, чтобы такие продукты и услуги носили качественный характер, были актуальны для различных заинтересованных сторон, чтобы продукт и услуга были действительно востребованными и открытыми.

Независимо от того, работаете ли вы напрямую с компанией, связанной с инновационными технологиями, или в любом другом секторе, такие новые технологии окажут влияние на профессионалов во всем мире. Независимо от того, потребуется ли обучение для понимания продуктов и услуг, которые предлагает ваша компания, чтобы эффективно применять ваши навыки, или ваша работа совершенно не связана, в какой-то момент эти технологии повлияют на то, как процессы, которым вы следуете, будут изменены.

Инструменты искусственного интеллекта, помогающие реализовать первую линию поддержки клиентов; понимание того, какие процессы стали полностью прозрачными с помощью Blockchain; переход на облачные сервисы, обеспечивающие простоту доступа и использования; или же вычислительные процессы и коммуникация совершают Квантовый скачок в скорости.

Вышесказанное подчеркивает необходимость мультидисциплинарности. Где профессионалы из разных областей – специализирующиеся в своей дисциплине, обладают знаниями или грамотностью в других дисциплинах, что позволяет им участвовать в обсуждениях и критически мыслить в отношении различных точек зрения, включая технические, юридические, деловые и этические.

Это затронет не только тех, кто прямо или косвенно работает с новыми технологиями. Эти технологии обеспечивают дальнейшую оцифровку и автоматизацию, позволяя решать многие задачи более эффективно, чем раньше. Это означает, что некоторые виды работ могут быть автоматизированы, что больше не требует полного участия человека. Некоторые задачи могут быть полностью автоматизированы, в то время как другие могут в некоторой степени требовать контроля со стороны человека.

Действительно, это означает, что некоторые рабочие места, которые сейчас играют существенную роль в различных отраслях, могут больше не потребоваться. Мы должны рассмотреть, как это повлияет на пострадавших, и подумать, как это повлияет на общество, и какие меры политики могут быть приняты для минимизации негативных последствий для человека и общества в целом. Смогут ли пострадавшие найти аналогичную работу в другом месте? Потребуются ли им повышение квалификации или переподготовка? Какие обязанности должны нести работодатели? Аналогично правительства? И даже отдельные лица?

Предположим на секунду, что с помощью автоматизации можно свести к минимуму совокупный объем работы, который необходимо выполнить в обществе. Сможет ли общество получить от этого прямую выгоду, позволив каждому получить больше свободного времени? Или это принесет пользу только тем, кто находится на вершине пирамиды? Однако такая ситуация маловероятна, как это было продемонстрировано с тех пор, как автоматизация была внедрена во время промышленной революции. Фактически, некоторые типы задач, которые можно автоматизировать с помощью ИИ и науки о данных, требуют, чтобы изображения и другие типы данных были помечены или проверены операторами. Эта потребность привела к появлению нового сектора – маркировки ИИ, в котором по всему миру возникло множество ?ферм ИИ?. Вполне возможно, что предыдущий персонал по обеспечению качества производства может быть перепрофилирован для работы в индустрии маркировки ИИ, что некоторые могут счесть возможностью повысить качество условий работы для такого персонала (от рабочих мест на производстве до офисных рабочих мест).

Блокчейн, технология распределенной книги (DLT) и смарт-контракты позволяют дезинтермедиацию – удаление ?посредников? из различных сервисов и процессов, что также обеспечивает большую прозрачность, гарантии и механизмы защиты от несанкционированного доступа, которые гарантируют, что участники сервисов не смогут обмануть.

Однако эти гарантии существуют только в рамках сервисов и процессов, закодированных в самом Блокчейне. Это означает, что если сервис требует внешнего ввода. Например, если блокчейн используется для обеспечения прозрачности в цепочке поставок, чтобы гарантировать, что рабский труд не используется, в то время как все данные, относящиеся к персоналу, работающему в цепочке поставок, и их производительности доступны для всеобщего обозрения и не могут быть изменены, кто-то должен ввести данные.

Если сотрудникам предоставлены уникальные учетные данные (или, скорее, пары закрытых / открытых ключей), мы можем гарантировать, что это действительно конкретный человек, вводящий данные. Однако можно ли заставить их ввести неверные данные, например, объем проделанной работы? Может ли часть их производительности не регистрироваться в системе? Хотя можно оптимизировать процесс, чтобы он был как можно более прозрачным и надежным, в конечном итоге процесс зависит от ввода данных, и различные заинтересованные стороны, вводящие данные, считаются доверенными сторонами, от которых зависит правильность отчетности, от которой зависят общие цели системы.

Можно ли доверять персоналу? Можно ли доверять их менеджерам? Можно ли доверять политике компании? В таких случаях создаются новые типы рабочих мест по физическому аудиту / проверке. Возможно, мы не сможем доверять самой компании, но, возможно, мы вполне можем доверять стороннему независимому аудитору. Как мы видим, такие инновационные технологии меняют рабочее место и режимы работы и потенциально удаляют некоторые виды рабочих мест, но они также создают новые.

Это касается не только технологий и рабочих мест. Внедрение этих новых технологий поднимает этические дилеммы (помимо автоматизации рабочих мест). Одно из таких клише: что делать автоматическому транспортному средству, если оно оказалось в ситуации, когда у него нет выхода, кроме как сбить одного из двух человек, кого ему выбрать? Когда автоматизированные транспортные средства станут повсеместными, мы сможем принять более активное участие в принятии этого решения, чем хотелось бы. Изучат ли наши автоматизированные автомобили некоторые из своих навыков вождения или моделей на основе того, как мы иногда можем управлять автомобилем с ручным управлением? Узнают ли они, как водят машину другие водители в регионе и / или как пешеходы взаимодействуют в таких ситуациях, чтобы разработать стратегию на случай, если этот сценарий станет реальностью? Или автомобиль потребует немедленного внимания водителя, чтобы он принял решение, и / или попросит каждого пассажира проголосовать за стратегию, которую он должен принять? Если да, то при таком сценарии или совершенно других сценариях будем ли мы готовы принимать такие трудные решения?

Фактически, многие разговоры и политика, связанные с этическими рамками ИИ, получили широкое освещение за последние несколько лет. Но на самом деле речь идет не об ИИ, и дискуссии не должны концентрироваться на этических рамках ИИ (только). Это может быть больше об автоматизации (которая может быть с поддержкой ИИ или без нее). И такие этические дебаты и соображения не должны быть ориентированы ни на автоматизацию, ни на программное обеспечение. Тем не менее, мы должны сосредоточить внимание на основных этических вопросах, которые не зависят от технологии.

Еще одно клише здесь: должны ли мы позволять ИИ решать, кто имеет право на страховой полис и / или банковский счет, в зависимости от демографических и исторических данных для людей с аналогичными чертами? Что ж, тот факт, что это решение может быть принято программным обеспечением с поддержкой ИИ, не имеет значения. Остается вопрос, является ли демография этическим критерием включения / исключения. Было бы иначе, если бы такое решение принимал человек? Конечно нет.

При этом общепринятая практика заключается в том, что такие решения основываются на склонности к риску и усмотрении самого учреждения при принятии решения о привлечении клиента к работе или предоставлении услуги. Чем это отличается? Поэтому важно, чтобы мы, как общество, уделяли меньше внимания конкретным появляющимся технологиям и больше уделяли внимание политике, этическим и нормативным вопросам, лежащим в основе таких проблем. Если, конечно, сама технология не представляет прямых рисков. Как только политика, правила и этические принципы станут ясными, важно, чтобы они выполнялись (независимо от того, применяются ли они вручную или с помощью технологий).

Возможно, единственное этическое соображение, касающееся технологии ИИ, о котором мы должны подумать, – это то, как нам следует обращаться с разумным ИИ. Вы можете беспокоиться о том, что ИИ захватит мир. Однако продвижения к такой реальности сделано не было. Есть два обобщения ИИ. Общий искусственный интеллект (AGI), способный делать ?что угодно? – тип ИИ, изображенный в фильмах. И искусственный узкий интеллект (ANI), способный очень хорошо выполнять / изучать одну задачу – тип ИИ, который мы действительно можем реализовать сегодня. Хотя не похоже, что AGI находится где-то рядом (хотя вполне может быть, что к этому может привести один прорыв), возможно, единственное этическое соображение, связанное с ИИ, которое мы должны продвигать, это следующее: как реализовать AGI, вы должны воздерживаться от его развертывания, пока общество и мир не выяснят, как лучше всего его регулировать.

С другой стороны, квантовые вычисления при дальнейшем развитии могут создавать риски для кибер-безопасности. Наша существующая Интернет-инфраструктура, а на самом деле вся современная инфраструктура полагается на криптографию – механизм, который гарантирует, что может иметь место безопасная связь, и секретные данные не могут быть увидены посторонними. Это достигается с помощью алгоритмов, гарантирующих невозможность (или, скорее, нереальность) взлома таких систем. Это невозможно только потому, что на такую ??атаку уйдут от миллиардов до триллионов лет.

Однако это только потому, что наши компьютеры настолько быстры. Если бы завтра квантовый компьютер стал доступен со значительно (экспоненциально) более высокой скоростью, чем у нас сегодня, некоторые аспекты нашей интернет-инфраструктуры и систем могли бы? быть подвержены атакам, которые не займут миллиарды или триллионы лет, но потенциально минут или часы. Поэтому важно, чтобы как общество, так и весь мир, во многом подобно тому, как были заключены договоры о разработке ядерного оружия, были заключены аналогичные соглашения, чтобы гарантировать, что, когда такая вычислительная мощность станет доступной, она никакие страны не будут ею злоупотреблять. Но опять же, должны ли мы уже иметь такие соглашения о кибер-войне?

Будете ли вы разрабатывать, взаимодействовать прямо или косвенно с такой появляющейся технологией или даже если вы полностью отключены от такой технологии, ясно, что она меняется и существенно изменит наше общество и мир. Поэтому уместно, что наша образовательная система готовит наши новые поколения к этому захватывающему новому миру. Способность не только работать в рамках определенной дисциплины, но и способность ценить различные дисциплины и точки зрения, которые будут пересекаться во многих отношениях, и способность мыслить критически, имея прочную принципиальную основу, которая способна продвигать наш вид вперед как в технологическом, так и в этическом отношении стремиться к общему благу.

SiGMA Америка:

После успешного запуска SiGMA Europe (Мальта) и SiGMA Asia (Манила) мы запускаем первую SiGMA AMERICAS, охватывающую все три основных часовых пояса. Первая конференция назначена на 22-24 сентября 2020 года с виртуальным саммитом, посвященным двум темам: SiGMA AMERICAS для игровой индустрии и AIBC AMERICAS для индустрии развивающихся технологий. Мы хотели предоставить свежий контент, чтобы помочь вам пережить эти неспокойные времена. Если вы изучаете Америку как новый рубеж или задаетесь вопросом, какие технические решения следует использовать, мы готовы помочь вам: настройтесь на 22-24 сентября 2020 года.