
Гонка вооружений за превосходство в искусственном интеллекте (ИИ), вызванная недавней паникой над китайским чат -ботом Deepseek, рискует усиливает экзистенциальные опасности суперинтеллигенности, согласно одним из «крестных отцов» ИИ.
Канадский пионер машинного обучения Йошуа Бенгио, автор первого международного отчета о безопасности ИИ, который будет представлен на международном саммите по искусственному искусству в Париже на следующей неделе, предупреждает неконтролируемые инвестиции в вычислительные полномочия для ИИ без надзора опасно.
«Усилия в том, кто собирается выиграть гонку, а не то, как мы можем позаботиться о том, чтобы мы не собираемся строить что -то, что нарастает на нашем лице», — говорит г -н Бенгио.
Он предупреждает, что военные и экономические гонки «приводят к сокращению углов по этике, сокращению углов на ответственность и на безопасность. Это неизбежно».
Г -н Бенгио работал над нейронными сетями и машинным обучением, архитектурой программного обеспечения, которая лежит в основе современных моделей ИИ.
Он находится в Лондоне, наряду с другими пионерами ИИ, чтобы получить премию королевы Елизаветы, самую престижную награду в Великобритании в знак признания ИИ и его потенциала.
Он с энтузиазмом относится к его преимуществам для общества, но оторвется от регулирования ИИ Дональд ТрампБелый дом и безумный конкурс между крупными технологическими компаниями за более мощные модели ИИ — это тревожный сдвиг.
«Сверхчеловеческие системы становятся более мощными»
«Мы строим системы, которые все более и более мощны; в некоторых измерениях становятся сверхчеловеческими», — говорит он.
«По мере того, как эти системы становятся более мощными, они также становятся чрезвычайно более ценными, экономически говоря.
«Таким образом, величина:« Вау, это заставит меня много денег »мотивирует многих людей. И, конечно, когда вы хотите продавать продукты, вы не хотите говорить о рисках».
Но не все «крестные отры» ИИ так обеспокоены.
Возьмите Янн Лекун, главный ученый Meta AI, также в Лондоне, чтобы поделиться в премию QE.
«Мы были введены в заблуждение, думая, что большие языковые модели умны, но на самом деле это не», — говорит он.
«У нас нет машин, которые почти так же умны, как домашняя кошка, с точки зрения понимания физического мира».
В течение трех-пяти лет, предсказывает г-н Лекун, ИИ будут иметь некоторые аспекты интеллекта на уровне человека. Роботы, например, могут выполнять задачи, которые они не были запрограммированы или обучены для выполнения.
Читать далее:
Что такое DeepSeek? Недорогая китайская фирма ИИ, которая перевернула мир технологий с ног на голову
Билл Гейтс говорит, что ему будет поставлен диагноз аутизм, если бы он сегодня был молодым
Но, утверждает он, а не делает мир менее безопасным, DeepSeek Драма — где китайская компания разработала ИИ, чтобы конкурировать с большим технологиями Америки с десятой вычислительной мощью — никто не будет доминировать надолго.
«Если США решат застегнуть, когда дело доходит до ИИ по геополитическим причинам, или, коммерческим причинам, то у вас будут инновации где -то еще в мире. Глупсек показал это», — говорит он.
Приз Королевской академии инженерной академии каждый год присуждается инженерам, чьи открытия имеют или обещают оказать наибольшее влияние на мир.
Предыдущие реципиенты включают пионеров фотоэлектрических клеток в солнечных батареях, технологии ветряных турбин и неодимийских магнитов, обнаруженных в жестких дисках, и электродвигателях.
Министр науки Лорд Валланс, который возглавляет фонд премии QE, говорит, что он насторожен на потенциальные риски ИИ.
Такие организации, как Новый Институт безопасности ИИ Великобритании, предназначены для предвидения и предотвращения потенциального вреда, который может принести интеллект «Человеческий».
Но он меньше обеспокоен тем, что одна нация или компания имеет монополию на ИИ.
«Я думаю, что то, что мы видели в последние несколько недель, так это гораздо более вероятно, что у нас будет много компаний в этом пространстве, и идея господства с одной точкой маловероятна»,-говорит он.