Роботы в США
Основная статья: Роботы в США
Искусственный интеллект в Пентагоне
Основная статья: Искусственный интеллект в армии США
2024
«Поглощение всего, кроме названия». ИИ-стартапы в США заключают новый вид сделок с крупными компаниями, чтобы выжить
В начале августа 2024 года стало известно о том, что стартапы в области искусственного интеллекта в США в связи со сложной макроэкономической обстановкой вынуждены заключать новый вид сделок с крупными корпорациями, чтобы выжить. Речь идет о соглашениях, предполагающих «поглощение всего, кроме названия».
Как сообщает газета The Wall Street Journal, такие сделки предполагают приобретение технологий стартапа и трудоустройство его сотрудников. Для крупных корпораций преимуществом подобных соглашений является то, что они не подпадают под стандартный процесс регулирования. Таким образом, крупные игроки могут еще больше укрепить свое положение на стремительно развивающемся рынке ИИ, не подвергаясь пристальному вниманию со стороны властей.
Отмечается, что в течение 2024-го были заключены несколько сделок по указанной схеме. Так, в марте Microsoft наняла практически всех сотрудников ИИ-стартапа Infection AI и заплатила $650 млн за лицензирование разработок этой молодой компании. Позднее, в июне, Amazon согласилась нанять основную часть работников стартапа Adept AI и заплатить около $330 млн за технологии фирмы. А в начале августа компания Character.AI объявила о сделке с Google, по условиям которой ИТ-корпорация сможет нанять исследователей и руководителей стартапа, а также использовать его разработки. В рамках этого соглашения Google договорилась о лицензионном сборе в размере $2 млрд.Метавселенная ВДНХ
Говорится, что поглощение со стороны крупной технологической корпорации лучше, чем полный провал проекта. Ведущие игроки отрасли ИИ обладают огромными вычислительными ресурсами и достаточными средствами для поддержания перспективных разработок. При этом поглощение стартапов позволят корпорациям укрепить положение по отношению к конкурентам.[1]
Министерство внутренней безопасности США опубликовало первую дорожную карту применения ИИ
18 марта 2024 года Министерство внутренней безопасности США (DHS) обнародовало первую дорожную карту ответственного и безопасного применения технологий искусственного интеллекта. Мероприятия ориентированы на внедрение ИИ-решений, которые способны принести значимую пользу американскому обществу и повысить национальную безопасность, а также на обеспечение защиты конфиденциальности, гражданских прав и свобод людей.
В документе выделяются три ключевые программы по использованию ИИ. В частности, Отдел расследований внутренней безопасности (HSI) задействует ИИ и большие языковые модели для улучшения следственных процессов. Речь идет о повышении эффективности поиска и извлечения документов по делу, а также о получении обобщенной информации. Целью этого проекта являются дальнейшая борьба с сексуальной эксплуатацией детей, выявление преступлений, связанных с наркотическими веществами, и пр.
В свою очередь, Федеральное агентство по управлению в чрезвычайных ситуациях (FEMA) будет использовать генеративный ИИ для оказания помощи правительствам штатов, местным и территориальным органам власти в планировании различных мероприятий. Это поможет в координации действий по ликвидации последствий катастроф, а также позволит минимизировать риски. Третий проект реализует Служба гражданства и иммиграции США (USCIS): она начнет использовать ИИ для улучшения подготовки своих сотрудников и упрощения операций.
В документе говорится, что достижения в области ИИ произведут революцию во многих сферах, на которые полагаются американцы. С другой стороны, ИИ может создавать новые риски и угрозы. Чтобы защитить киберпространство и критически важную инфраструктуру от возможных негативных последствий, DHS будет управлять безопасной и ответственной разработкой и использованием ИИ.[2]
В США начинают выдавать патенты на изобретения, созданные искусственным интеллектом
13 февраля 2024 года Управление по патентам и товарным знакам США (USPTO) сообщило о том, что на изобретения, созданные с применением искусственного интеллекта, могут быть получены патенты. Главное условие заключается в том, чтобы человек внес достаточный вклад в работу. Иными словами, собственно ИИ считаться изобретателем не может, а поэтому зарегистрировать на него документ не получится. Подробнее здесь.
США закрывают Китаю доступ к обучению ИИ в американских облачных системах
В конце января 2024 года стало известно о том, что Министерство торговли США внедряет новые ограничительные меры для китайских компаний в отношении облачных технологий. Ведомство закроет для клиентов из КНР доступ к ИИ-обучению в американских облачных системах. Подробнее здесь.
2023
Партия в США задействовала «первого в мире ИИ-агитатора» в избирательной кампании
12 декабря 2023 года стало известно о том, что кандидат от демократической партии в Палату представителей США Шамейн Дэниелс (Shamaine Daniels) использует в своей избирательной кампании «первого в мире агитатора на основе искусственного интеллекта». Умный помощник, получивший имя «Эшли», построен с применением алгоритмов генеративного ИИ — аналогичных тем, что задействованы в чат-боте OpenAI ChatGPT.
От обычных телефонных роботов «Эшли» отличается тем, что ни одна ее реплика или ответ не записаны заранее: они генерируются непосредственно в процессе общения с учетом контекста беседы. ИИ-помощник может одновременно вести неограниченное количество разговоров один на один. Всего за пару дней «Эшли» связалась с тысячами избирателей от имени Дэниэлс. ИИ в режиме реального времени анализирует беседу, адаптируясь к конкретному человеку. В отличие от волонтеров-людей, «Эшли» может работать в круглосуточном режиме, способна общаться более чем на 20 языках и прекрасно помнит всю полученную информацию.
Отмечается, что «Эшли» — один из первых примеров того, как генеративный ИИ открывает новую эру политических кампаний. Кандидаты начинают использовать нейросети для взаимодействия с избирателями новыми способами. Компания Civox, создавшая «Эшли», заявляет, что в дальнейшем технология будет масштабироваться: система сможет совершать десятки и сотни тысяч звонков в день.
С одной стороны, говорят эксперты, ИИ в политике дает возможность охватить огромное количество людей, ведя персонализированные беседы. С другой стороны, возникают риски распространения дезинформации в больших масштабах. Высказываются опасения по поводу того, что генеративный ИИ вкупе с дипфейками может поставить под угрозу честность выборов.[3]
АНБ запустило подразделение для контроля за безопасностью ИИ при внедрении в госсекторе
28 сентября 2023 года директор Агентства национальной безопасности США (АНБ) генерал армии Пол Накасоне объявил о создании новой структуры для надзора за развитием и интеграцией возможностей искусственного интеллекта в госсекторе. Подразделение получило название Центр безопасности ИИ (AI Security Center). Подробнее здесь.
Администрация президента США взяла 8 обещаний с ИИ-компаний. О чем договорились разработчики?
21 июля 2023 года администрация президента США Джо Байдена сообщила о том, что компании, занимающиеся технологиями искусственного интеллекта, взяли на себя добровольные обязательства перед Белым домом по внедрению мер, нацеленных на обеспечение безопасности и снижение рисков, связанных с использованием нейросетей и больших языковых моделей.
В соглашении участвуют Amazon, Anthropic, Google, Inflection, Meta (признана экстремистской организацией; деятельность на территории Российской Федерации запрещена), Microsoft и OpenAI. В общей сложности перечислены восемь обязательств, которые, как утверждается, отражают три принципа в основе будущих систем и приложений ИИ — безопасность, защищенность и доверие:
- Компании обязуются проводить внутреннее и внешнее тестирование безопасности своих систем ИИ перед их выпуском на коммерческий рынок;
- Компании обязуются делиться информацией с отраслевыми экспертами, а также с правительствами, гражданским сообществом и академическими кругами об управлении рисками ИИ;
- Разработчики будут инвестировать средства в кибербезопасность и инструменты защиты от инсайдерских угроз;
- Участники отрасли обязуются содействовать обнаружению уязвимостей в своих ИИ-продуктах третьими сторонами и сообщать о выявленных проблемах безопасности;
- Компании должны разработать механизмы, позволяющие пользователю понять, что контент создан средствами ИИ — это может быть система специальных водяных знаков;
- Разработчики ИИ-продуктов обязуются публично сообщать о возможностях, ограничениях и потенциальных областях ненадлежащего использования своих систем;
- Компании обязуются уделять приоритетное внимание исследованиям социальных рисков, которые могут представлять средства ИИ и большие языковые модели;
- Участники отрасли обещают разрабатывать и развертывать передовые ИИ-системы для решения наиболее серьезных общественных проблем — от профилактики рака до смягчения последствий изменения климата.
Инициатива является частью более широкой программы администрации Байдена по обеспечению безопасной и ответственной разработки ИИ, а также по защите американцев от киберугроз и дискриминации.[4]
Как военный ИИ помогает компаниям подавлять профсоюзы в США: Шокирующая правда о технологиях слежки за сотрудниками
В конце июня 2023 года стало известно о том, что шпионские устройства, разработанные оборонными подрядчиками, теперь продаются работодателям для выявления организации труда. Регулирующие органы хотят принять меры для защиты частной жизни работников.
По информации Wired, методы слежки, знакомые авторитарным диктатурам, теперь перепрофилированы на американских работников. С 2013 года появилось несколько десятков компаний, предлагающих работодателю подписку на такие услуги, как «разведка открытых источников», «управление репутацией» и «оценка внутренней угрозы». Инструменты, которые зачастую изначально разрабатывались оборонными подрядчиками для разведывательных целей. С появлением глубокого обучения и новых источников данных стали значительно более сложными. С их помощью ваш начальник может использовать передовую аналитику данных для выявления организации труда, внутренних утечек и критиков компании.
В отчете от Wired сказано, что такие крупные компании, как Amazon, уже следят за организацией профсоюзов. Но расширение и нормализация инструментов для слежки за работниками практически не привлекает внимания, несмотря на их происхождение. ИИ военного класса был предназначен для борьбы с нашими национальными врагами, номинально под контролем избранных демократических правительств, с гарантиями, предотвращающими его использование против граждан.
Компания FiveCast, например, начинала как антитеррористический стартап, продающий свои услуги военным, но теперь она передала свои инструменты корпорациям и правоохранительным органам, которые могут использовать их для сбора и анализа всех видов общедоступных данных. FiveCast не просто подсчитывает ключевые слова, а хвастается тем, что ее «коммерческая безопасность» и другие предложения могут идентифицировать сети людей, читать текст внутри изображений и даже обнаруживать объекты, изображения, логотипы, эмоции и концепции внутри мультимедийного контента. Ее инструмент «управления рисками цепочки поставок» предназначен для прогнозирования будущих сбоев, например, забастовок, для корпораций.
Таким образом, инструменты сетевого анализа, разработанные для выявления террористических ячеек, могут быть использованы для выявления ключевых организаторов труда, чтобы работодатели могли незаконно уволить их до создания профсоюза. Стандартное использование этих инструментов при наборе персонала может побудить работодателей избегать найма таких организаторов. А стратегии количественной оценки рисков, разработанные для предупреждения нации о готовящихся атаках, теперь могут использоваться для принятия инвестиционных решений, например, о том, следует ли отказываться от акций тех районов и поставщиков, которые, по оценкам, обладают высоким потенциалом для организации труда.
По данным Wired, методы сетевого анализа присваивают риск по ассоциации, что означает, что пользователь может быть помечены просто за то, что следите за определенной страницей или аккаунтом. Эти системы также могут быть обмануты поддельным контентом, который легко создается в масштабах генеративного ИИ. Некоторые компании предлагают сложные методы ML, такие как глубокое обучение, для выявления контента. Однако возможности этих систем быстро растут. Компании рекламируют, что к 2030 году компании включат технологии ИИ нового поколения в свои инструменты наблюдения. Новые функции обещают облегчить изучение различных источников данных с помощью подсказок, но конечной целью, похоже, является рутинизированная, полуавтоматическая система наблюдения за профсоюзами.
Корпорации, предоставляющие эти услуги, процветают в условиях безвестности и отсутствия нормативного регулирования. Защита от слежки на рабочем месте сделана из тончайшей ткани. Апологеты отрасли заявляют, что их ПО, продаваемое для того, чтобы помочь работодателям «понять обстановку в профсоюзах», не является антипрофсоюзным. Вместо этого они клеймят себя как продавцов «мониторинга корпоративной осведомленности» и громко заявляют, что «каждый американец защищен федеральными, государственными и местными законами о работе в безопасных условиях». Очевидно, что производитель не виноват, если покупатель использует это ПО для ущемления защищенного законом права на организацию или протест.
Компании, использующие такие инструменты, должны быть вынуждены публично раскрывать информацию об их использовании, чтобы можно было обеспечить соблюдение существующих законов в США. И новые правила срочно необходимы. В 2022 году Национальный совет по трудовым отношениям объявил Америки, что будет стремиться запретить навязчивое и неправомерное наблюдение за трудовой деятельностью, что является важным шагом. Кроме того, работники и профсоюзы должны давать показания на законодательных слушаниях о будущем регулировании ИИ и наблюдения на рабочих местах. Государству нужны конкретные правила, определяющие, какие виды использования ИИ, источников данных и методов допустимы и при каких условиях они могут применяться.
Эти технологии уже продаются и внедряются по всему миру и используются для трансграничного наблюдения. В лучшем случае, активный регулятор должен стать глобальным лидером в области ответственного ИИ и работать над установлением международных стандартов для технологий рабочего места. Без этой работы транснациональные компании с глобальными цепочками поставок смогут легко игнорировать или обходить меры защиты в конкретных странах.[5]
Как искусственный интеллект и ChatGPT меняют американскую политику
В конце мая 2023 года появились сообщения о том, что передовые технологии генеративного искусственного интеллекта, такие как ChatGPT, способны оказать значительное влияние на предвыборную президентскую кампанию в США.
Очередные выборы главы американского государства состоятся 5 ноября 2024 года. Как сообщает Reuters, в интернете уже появляются весьма реалистичные дипфейки с участием кандидатов, официально участвующих в предвыборной гонке. По мнению экспертов, такие фальсифицированные материалы могут оказать существенное влияние на политическую сферу и решения избирателей. Дело в том, что современные ИИ-инструменты, такие как ChatGPT, способны очень точно имитировать голос и мимику политиков и других публичных лиц. А поэтому существует высокая вероятность того, что дипфейки введут электорат в заблуждение.
Мне на самом деле очень нравится Рон Десантис [кандидат в президенты от Республиканской партии]. Он именно тот человек, который нужен этой стране, — неожиданно признаётся Хиллари Клинтон в рекламном онлайн-видео. |
Подобные фальшивки, появляющиеся среди огромного количества публикуемых в интернете материалов, как отмечается, размывают грань между фактами и вымыслом. Хотя такие подделки публиковались и раньше, в 2022–2023 годах произошёл взрывной рост числа дипфейков. Этому способствуют передовые ИИ-сервисы, которые удешевляют и упрощают процесс создания убедительных аудио- и видеофальшивок. А специализированное оборудование, предназначенное именно для обработки ИИ-алгоритмов и больших языковых моделей, многократно ускоряют генерацию контента.
Избирателям будет очень трудно отличить настоящее от подделки. И вы можете себе представить, как сторонники Трампа или Байдена могут использовать эту технологию, чтобы выставить оппонента в плохом свете, — сказал Даррелл Уэст (Darrell West), старший научный сотрудник Центра технологических инноваций Брукингского института.[6] |
Администрация президента США опубликовала стратегию исследований и разработок в области искусственного интеллекта. 9 главных положений
В мае 2023 года администрация президента США опубликовала национальную стратегию исследований и разработок в области искусственного интеллекта (National AI R&D Strategic Plan). Документ пришел на смену представленному в 2019 году плану и включает следующие основные положения:
- долгосрочные инвестиции в фундаментальные ответственные ИИ-исследования;
- разработка эффективных методов взаимодействия «ИИ-система – человек»;
- определение угроз этического, юридического и социального характера при применении ИИ и противодействие им;
- обеспечение безопасности и защищённости ИИ-систем;
- разработка общедоступных наборов данных и сред для обучения и тестирования ИИ;
- измерение и оценка ИИ-систем посредством стандартов и критериев;
- лучшее понимание нужд сотрудников, задействованных в национальных исследованиях и разработках в области ИИ;
- расширение частно-государственного партнёрства для ускорения прогресса в сфере ИИ;
- выработка основанного на принципах скоординированного подхода к международному сотрудничеству в ИИ-исследованиях.
Как сообщается на сайте администрации президента США, National AI R&D Strategic Plan будет способствовать исследованиям, разработке и внедрению «ответственного искусственного интеллекта, который защищает права и безопасность людей и приносит блага американскому народу».
ИИ — одна из самых мощных технологий нашего времени, обладающая широким спектром применения. Президент Байден ясно дал понять, что для того, чтобы воспользоваться возможностями, которые представляет ИИ, мы должны сначала управлять его рисками. С этой целью администрация президента предприняла значительные действия для продвижения инноваций в области искусственного интеллекта, которые ставят людей, сообщества и общественное благо в центр и управляют рисками для отдельных лиц и нашего общества, безопасности и экономики, - сказано на сайте whitehouse.gov. |
NATIONAL ARTIFICIAL INTELLIGENCE RESEARCH AND DEVELOPMENT STRATEGIC PLAN 2023 UPDATE
Президент США выделил $140 млн на создание 7 НИОКР-лабораторий для развития искусственного интеллекта
4 мая 2023 года администрация президента США Джо Байдена сообщила о новой инициативе по продвижению «ответственных инноваций» в области искусственного интеллекта, нацеленных на «защиту прав и обеспечение безопасности американцев».
Отмечается, что ИИ — это одна из наиболее влиятельных современных технологий. Однако её использование сопряжено с определёнными рисками, а поэтому компании должны нести ответственность за обеспечение безопасности своих продуктов. Обсуждение соответствующих вопросов ведётся с четырьмя ведущими американскими ИТ-компаниями, осуществляющими разработки в области искусственного интеллекта: это Alphabet, Anthropic, Microsoft и OpenAI.
Между тем Национальный научный фонд США объявил о выделении $140 млн на формирование семи новых научно-исследовательских и опытно-конструкторских лабораторий для проведения работ в сфере ИИ. Общее количество таких институтов в масштабах страны в перспективе достигнет 25. Участвующие организации, как отмечается, помогут в создании прорывных технологий и инновационных решений в важнейших областях, включая климат, сельское хозяйство, энергетику, здравоохранение и образование.
Эти институты катализируют совместные усилия высших учебных заведений, федеральных агентств, промышленности и других организаций для обеспечения революционных достижений в области искусственного интеллекта. Помимо продвижения ответственных инноваций, такие лаборатории укрепляют американскую инфраструктуру исследований и разработок в сфере ИИ, — говорится в заявлении Белого дома. |
Сообщается также, что Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI, Stability AI и другие компании согласились на публичную оценку своих ИИ-моделей. Тестирование таких систем независимо от правительственных структур и (или) их разработчиков поможет предпринять эффективные меры для устранения выявленных проблем.[7]
2022
Китай обогнал США по числу ученых в области ИИ
По итогам 2022 года на Китай пришлось приблизительно 38% ведущих исследователей в области искусственного интеллекта, работающих в американских учреждениях. Для сравнения, у США этот показатель оценивается в 37%. В 2019-м значения составляли 27% и 31% соответственно. Такие цифры приводятся в исследовании компании MacroPolo, результаты которого опубликованы в начале марта 2024 года. Подробнее здесь.
Китай опережает США по числу патентов на ИИ
Китай все больше опережает США по числу ИИ патентов, что свидетельствует о решимости азиатской страны формировать и влиять на технологию, которая может иметь широкие последствия для самых богатых экономик мира.
2021: США выделят $1,5 млрд на развитие технологий ИИ
15 июля 2021 года стало известно о том, что США выделят $1,5 млрд на развитие технологий ИИ.
В программе финансирования будут участвовать не только крупные оборонные подрядчики США, но также университеты и малые предприятия.
«Первая волна» развития технологий искусственного интеллекта (ИИ) пришлась на 60-е годы 20 века, и спустя пять десятков лет пришла «четвертая волна» с машинами, способными понимать и рассуждать в контексте.
На июль 2021 года за высокие позиции в области ИИ борются Китай и США.
Китайские власти четко дали понять, что Китай намерен стать мировым лидером в области ИИ к 2030 году. Пекин уже говорит об использовании ИИ в самых разных миссиях, от сбора данных до кибератак и автономного оружия. В области ИИ, как и во многих других, мы понимаем, что Китай задает темп. И мы намерены участвовать в этой гонке, чтобы победить, но только правильным путем, - сообщил министр обороны США Ллойд Остин. |
По словам Остина, в программе финансирования будут участвовать не только крупные оборонные подрядчики США, но также университеты и малые предприятия.
В мае 2021 года министр обороны подписал стратегический документ о реализации концепции Joint All Domain Command and Control (JADC2). Идея концепции заключается в том, чтобы объединить данные наблюдения и разведки всех родов войск в единую сеть. Для разработки оптимального плана реагирования Пентагон намерен использовать ИИ и другие технологии, что позволит сократить время, необходимое для перехода от анализа окружающей среды к принятию мер.
С точки зрения силы и технологий США значительно превосходили экстремистские группировки, с которыми они боролись на Ближнем Востоке, и могли мобилизовать свои силы и действовать в своем собственном темпе. Однако Пекин догоняет Вашингтон в наземной, морской, воздушной, космической и кибернетической сферах и, по мнению некоторых наблюдателей, даже превосходит американцев в западной части Тихоокеанского региона.
При более-менее равных силах обеих стран решающее значение будет иметь скорость, с которой они смогут собирать и анализировать разведданные и претворять свои стратегии в жизнь.
Над внедрением JADC2 Пентагон рассчитывает работать с более чем 30 странами. В случае военного конфликта использование данных, предоставляемых дружественными странами, повысит точность разведки[8].
2020
США позиционируют ИИ в качестве ключевой стратегии и умножают бюджет на ИИ
Только 4% руководителей компаний США планируют внедрить ИИ в масштабе всей компании
В исследовании PwC «Прогнозы развития технологии ИИ на 2020 год» представлена оценка инвестиций американских компаний в технологию ИИ и последствий более широкого развития и интеграции этой технологии в экономику. Об этом стало известно 20 февраля 2020 года.
Третье ежегодное исследование PwC «Прогнозы развития ИИ» показало, что в 2020 году только 4% руководителей компаний США планируют внедрить технологию ИИ в масштабе всей компании, тогда как год назад эта доля составляла 20%.
В ближайшие десять лет прибыль от применения технологии ИИ в глобальном масштабе оценивается почти в 16 триллионов долларов США, причем наибольшую прибыль, как ожидается, получат Северная Америка и Китай.
В целом в 2020 году меньше американских компаний планируют расширять внедрение технологии ИИ, при этом почти каждая пятая организация (18%) уже внедрила эти технологии в нескольких областях, а 42% компаний анализируют возможности использования технологии ИИ.
Как сообщается, 90% опрошенных руководителей в США сказали, что возможности технологии ИИ превышают связанные с ней риски. Почти половина руководителей ожидают, что в результате использования технологии ИИ они получат преимущества на своих рынках или в сферах своей деятельности. Основные направления инвестиций в технологию ИИ включают управление рисками и угрозами, связанными с недобросовестными действиями и кибербезопасностью (38%) и автоматизацию рутинных заданий (35%).
Руководители склонны недооценивать вероятно самую важную проблему, связанную с данными, — их маркирование для использования системами ИИ. Только треть руководителей в США называют маркирование данных в числе приоритетов своих компаний на 2020 год.
Если говорить о российском рынке, то он активно идет в направлении использования инновационных технологий. ИИ является одной из сквозных технологий входящих в национальную программу по цифровизации, стратегия которой была принята в 2019 году. Был также создан альянс по развитию искусственного интеллекта на базе крупнейших игроков рынка, для которых указанная технология является все более актуальной, сказал Олег Данильченко, директор, руководитель Центра по прикладному анализу данных, PwC в России
|
По мере увеличения присутствия технологии ИИ (часто остающейся невидимой) в повседневных бизнес-процессах, а также в решениях, предлагаемых поставщиками, наличие эффективной системы управления рисками на основе технологии ИИ приобретает важнейшее значение.
Большинство респондентов отметили, что в их компаниях есть общекорпоративные отделы управления ИИ, при этом 50% сказали, что они объясняют технологии тем, кто строит и эксплуатирует систему, а 49% сосредоточены на объяснении технологий тем, кого она затрагивает.
В число приоритетных задач технологии ИИ в 2020 году входит определение того, как компании переосмысливают процессы повышения квалификации сотрудников, предлагая нетехническим сотрудникам освоение соответствующих навыков.
50% руководителей говорят о необходимой возможности незамедлительного применения полученных знаний для повышения эффективности деятельности[9].
2019: США выделили $1 млрд на развитие искусственного интеллекта
В середине сентября 2019 года правительство США выделило около $1 млрд на исследования в области искусственного интеллекта, однако это заявление вызвало неоднозначную реакцию со стороны лидеров отрасли. Intel и Nvidia считают эту сумму смешной, ведь для поддержания конкурентного преимущества в области ИИ бизнесу требуется гораздо более существенная поддержка.
Известно, что федеральное правительство США впервые рассчитало запросы конкретных учреждений на расходы по разработке ИИ. Расходы Министерства обороны в этой области засекречены. В плане исследований ИИ на 2020 год изложены ключевые программы и стратегические приоритеты правительства, включая координацию долгосрочных федеральных инвестиций в исследованиях, продвижение безопасных и эффективных методов взаимодействия человека и ИИ и оценку технологий ИИ с помощью новых критериев и стандартов.
При этом правительство заявило, что сокращение государственных расходов на ИИ мотивирует научно-исследовательским организациям здраво оценивать инвестиционные возможности, проводить стратегическое планирование и сотрудничать с промышленными комплексами. Чиновники администрации Трампа также заявили, что их цифры более прозрачны, чем данные по инвестициям китайского правительства в области ИИ.
Но Intel и Nvidia считают, что инвестиции США в разработку ИИ слишком малы. Они также раскритиковали федеральных чиновников за пренебрежение к законам, регулирующим защиту данных и конфиденциальность пользователей. Представители крупных компаний считают, что введение общегосударственных законов по защите данных укрепит доверие пользователей и напрямую стимулирует частные инвестиции в ИИ, поскольку эти технологии в значительной степени зависят от использования данных.[10]
Примечания
- ↑ Struggling AI Startups Look for a Bailout From Big Tech
- ↑ Department of Homeland Security Unveils Artificial Intelligence Roadmap, Announces Pilot Projects to Maximize Benefits of Technology, Advance Homeland Security Mission
- ↑ Meet Ashley, the world's first AI-powered political campaign caller
- ↑ FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI
- ↑ Military AI’s Next Frontier: Your Work Computer
- ↑ Deepfaking it: America's 2024 election collides with AI boom
- ↑ FACT SHEET: Biden-Harris Administration Announces New Actions to Promote Responsible AI Innovation that Protects Americans’ Rights and Safety
- ↑ США выделят $1,5 млрд на развитие технологий ИИ
- ↑ PwC: прогнозы развития технологии ИИ на 2020 год
- ↑ Executives Say $1 Billion for AI Research Isn’t Enough