
Искусственный интеллект
Notion превращает документы в сайты
Notion научился превращать документы в сайты.
Сервис мощно обновился и теперь бесплатно генерирует веб-сайты буквально по нажатию одной кнопки.
Также Notion может настроить SEO, сгенерировать контент с помощью ИИ и интегрироваться с Google Analytics. Плюс здесь уже можно найти 10 тысяч шаблонов и даже привязать полученный сайт к своему домену.
Источник
Человек, ИИ, закон: как в России будут регулировать искусственный интеллект
В Совфеде обсудили законодательное регулирование искусственного интеллекта в России. Вопрос, как относиться к ИИ, что именно загонять в законодательные рамки и насколько жесткие нормы принимать в отношении искусственного интеллекта, пока не изведан и требует новых решений. Поэтому законодатели призывают одновременно вносить главные принципы работы с ИИ в Цифровой кодекс и постепенно регулировать особенно чувствительные моменты, связанные с нейросетями. А разработчики призывают использовать возможности саморегулирования отрасли. Подробности — в материале «Известий».
Какие опасности несет ИИ
Председатель Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков на заседании в Совфеде подчеркнул, что не совсем правильно говорить о «законодательном регулировании искусственного интеллекта». Скорее речь идет о регулировании применения ИИ и его последствиях.
Говоря о рисках использования ИИ, Алексей Пушков указал на различные противоправные действия на нейросетевой технологической основе, например телефонное мошенничество. Кроме того, искусственный интеллект становится идеологическим инструментом — с его помощью искажается информация, в том числе историческая правда, продолжает сенатор.
— Надо понимать, что ИИ работает в рамках запроса, который делается человеком, на основе заложенных в него данных и реагирует в первую очередь на общественный запрос, — подчеркнул он. — Поэтому, например, недавно Gemini 1.5 от Google в ответ на поиск изображения Людовика XIV продемонстрировал короля Франции чернокожим — просто потому, что такова сейчас повестка в западном обществе.
По его словам, в генеративные модели западных компаний заложено мировоззрение, которое отличается от российского.
Третий большой блок, который выделяет Алексей Пушков, — это тема соблюдения прав человека: наблюдение за ним, распознавание лица, причем следят за человеком те, кто на это вовсе не уполномочен.
Как регулируют ИИ в других странах
Алексей Пушков призвал изучить опыт других стран по регулированию нейросетевых технологий, в том числе ЕС, где недавно вышел акт об использовании искусственного интеллекта.
Первый зампред комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова на заседании отметила, что ЕС продемонстрировал жесткий подход к регулированию ИИ: фактически это централизованный контроль всех стадий разработки и применения генеративных нейросетей с тщательным их тестированием перед использованием.
В США, Великобритании и Японии, напротив, предусмотрен минимальный контроль ИИ, говорит она. Нейтральное регулирование, когда законодатель находит баланс между развитием и безопасностью с точечным характером ограничений, использует Китай. Ирина Рукавишникова считает, что именно этот вариант будет лучшим для России.
Как предлагают регулировать ИИ в России
Ирина Рукавишникова призывает к применению риск-ориентированного подхода к генерированию искусственного интеллекта. Для этого все сферы, в которых нейросети могут применяться, предлагается разделить на четыре группы.
Первая группа — с недопустимым риском применения ИИ: например, невозможно выставление искусственным интеллектом окончательных медицинских диагнозов, вынесение судебных решений и т.д. Вторая группа — с высоким риском. Сюда отнесены образование, инфраструктура транспорта и т.д. Третья группа — сферы с ограниченным риском, где использование ИИ возможно при условии, что люди будут знать, что они взаимодействуют с нейросетью. И четвертая группа — это минимальный риск и свободное использование ИИ: например, в видеоиграх, в программах для фильтрации спама и т.д.
Такой подход, сообщила Рукавишникова, будет отражен в проекте будущего Цифрового кодекса, который сейчас разрабатывается.
Сенатор также полагает, что нужно обязательно принимать закон о маркировке контента, произведенного с помощью искусственного интеллекта, но с условием введения ответственности за его неисполнение.
При этом Рукавишникова подчеркивает, что одновременно необходимо стимулировать отечественных разработчиков систем ИИ.
Юридический консультант, создатель LegalTech-решений Виктор Наумов на заседании подчеркнул, что важно отразить возможность отказа человека от цифровых технологий — например, чтобы на портале «Госуслуг» можно было воспользоваться не роботом, а услугами живого специалиста.
— Нам нужно право на коммуникацию человека с человеком, — заметил он. — Мы же сейчас привыкаем к тому, что человек человеку не нужен.
Какие точечные изменения могут внести
В свою очередь, сенатор Артем Шейкин заметил, что Цифровой кодекс — это фундаментальный документ, но важно выделить несколько сфер с самыми очевидными злоупотреблениями искусственным интеллектом и реагировать на эти вызовы.
— С помощью поправок мы можем ограничить какие-то потенциальные злоупотребления: например, ограничить продажу сим-карт, чтобы пресечь огромное количество мошеннических звонков, — сказал он.
Управляющий партнер юридической компании «Воин-групп», сертифицированный специалист в области правового регулирования ИИ Полина Толкунова в беседе с «Известиями» заметила, что уже сейчас есть судебная практика по ряду ситуаций со злоупотреблением нейросетевыми технологиями. Например, в суде определялась принадлежность авторских прав на произведения, созданных с использованием технологии ИИ, на основании существующих норм Гражданского кодекса РФ.
— Но технологии ИИ применяются и в таких серьезных направлениях, как здравоохранение, медицина, при ведении военных действий и т.д., — заметила юрист. — Поэтому наиболее оптимальным вариантом правового регулирования считаю внесение соответствующих изменений в существующие федеральные законы и постепенное создание отраслевого федерального законодательства. В первую очередь необходимо регулировать механизмы и разграничение ответственности при использовании технологий ИИ в различных сферах и направлениях, а также вопросы конфиденциальности и защиты данных.
При этом создание рамочного закона она называет невозможным, так как технологии ИИ развиваются беспрецедентно быстро. Полина Толкунова добавила, что сейчас уже есть закрепленное в федеральном законодательстве понятие ИИ: в законе 24.04.2020 N 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в Москве...», однако назвала его не очень удачным.
Руководитель юридической практики Научно-технического центра Роскомнадзора Станислав Махортов на заседании также отметил, что уже сейчас важно работать с действующим законодательством, причем не все его правки будут прямо связаны с нейросетями. В этом контексте на заседании говорили о законе о защите персональных данных, который подразумевает большие штрафы за утечку информации о гражданах страны, используемой затем в мошеннических целях. ИИ в этой ситуации выступает лишь механизмом, который используют злоумышленники.
— Безусловно, есть зоны регулирования, которые могут быть напрямую не связаны с искусственным интеллектом, — сказал сенатор Алексей Пушков «Известиям». — Однако, понимая, что заблокировать всё незаконное распространение персональных данных невозможно, мы должны одновременно вводить ответственность, например, и для операторов искусственного интеллекта, создавая таким образом несколько «фильтров» для минимизации злоупотребления ИИ.
Главный архитектор систем искусственного интеллекта исследовательского центра ИИ по направлению «Транспорт и логистика» НИЯУ МИФИ Роман Душкин на заседании подчеркнул, что для этих целей важнее даже не принятие того или иного закона, а цифровой ликбез для граждан страны, чтобы каждый человек знал, что такое ИИ, и мог определять, что перед ним робот, дипфейк и т.д.
Отрасль — за саморегулирование
В отрасли настороженно относятся к вопросу законодательного ограничения сферы искусственного интеллекта. Роман Душкин в разговоре с «Известиями» признался, что является сторонником мягкого подхода в регулировании.
— На разработку такого мощного нормативного документа, как Цифровой кодекс, уйдут годы, а за это время технологии шагнут далеко вперед, — сказал он. — Либо кодекс станет документом с совершенно общими формулировками, но пустым с точки зрения правоприменительной практики. Он должен будет обрастать огромным количеством подзаконных актов. В то же время добропорядочным гражданам закон, по сути, и так не нужен, а злоумышленникам на него плевать. Запрещать же или сильно ограничивать сам инструмент ИИ при этом нельзя: это будет выстрел себе в ногу.
В «Яндексе» также заявили «Известиям», что в законодательном регулировании ИИ важно «не опережать действительность и отвечать на реальные риски, а не на фобии».
— Как и в любой другой сфере, нужно опираться на практику применения технологий, которая только начинает накапливаться, — отметили в пресс-службе компании. — Основные вопросы, которые сейчас предъявляются к ИИ, касаются этики и ответственного использования технологий — как разработчиками, так и пользователями. Бизнес осознает это и предлагает меры саморегулирования — инициирует кодексы, декларации и отраслевые стандарты.
В компании рассказали, что недавно «Яндекс» вместе с другими участниками Альянса в сфере искусственного интеллекта подписал декларацию об ответственной разработке и использовании сервисов на основе генеративного ИИ. Такой подход, уверены в компании, позволит продолжать развивать технологии в благоприятной и безопасной среде, а пользователям — получать максимально полезные сервисы.
Президент ассоциации разработчиков программного обеспечения «Руссофт» Валентин Макаров также предостерегает от чрезмерного регулирования этой технологической отрасли.
— Опыт ЕС показывает, что принятие сейчас строгого нормативного регулирования ИИ, когда мы еще не знаем, как и куда он развивается, не будет правильным, — сказал он «Известиям». — Думать о вопросах безопасности при применении ИИ, конечно, нужно. И нужно запускать процесс саморегулирования. Важно эффективно работать над техническим регулированием, формируя стандарты, а этот процесс поневоле будет приводить к соответствующему нормативному регулированию.
В то же время технический директор DIS Group Олег Гиацинтов поддерживает мнение о том, что оптимальный подход заключается в сочетании рамочного закона с точечными мерами. Он считает, что в законодательстве должно появиться четкое и универсальное определение искусственного интеллекта, а также основные принципы его использования, обеспечивающие ответственное и безопасное использование ИИ с учетом этических и правовых норм: прозрачности, отчетности, недискриминации, защиты конфиденциальности и т.д.
Вице-президент «Лаборатории Касперского» по связям с государственными органами Юлия Шлычкова в беседе с «Известиями» называла важным разработку и утверждение стандарта по безопасной разработке систем с использованием ИИ, на основании которого впоследствии можно выработать требования к сертификации процессов безопасной разработки. Она также называет эффективным инструментом маркировку контента и нормативное регулирование в области персональных данных.
В «Лаборатории Касперского» также выступили за создание Единого центра мониторинга угроз развития технологий искусственного интеллекта, который не только будет изучать угрозы, но и оповещать о них всех разработчиков ПО, создаст единую базу знаний об угрозах в области ИИ с методологическими описаниями.
Благодарю, что дочитали до конца. Вся движуха в нейрусе - https://t.me/neuralnexus1 . Если хотите знать все об IT и нейросетях - подписывайтесь!
Stable Diffusion Online
Привет всем любителям и ненавистникам нейротворчества! 👋
Знаю, знаю, все эти нейросети уже в печенках сидят 😅, но тем не менее...
Хочу поделиться последней находкой из всей кучи одинаковых ботов, которая реально круто создает шедевры 🤩. Особенно если использовать SDXL модели 😉.
Вот несколько примеров, что он творит на SDXL моделях:
A monster outside looking through the window to a child sleeping in the bed. Horror fairy tale art. Hand-Drawn art by John Kenn Mortensen.
Chubby cat in a tiny car 2D flat illustration t-shirt design with text saying "Living the dream" in the style of watercolor
А здесь можно подглядеть промпты для stable diffusion online и поделиться своим творчеством
Я заправил нейронку на 10000 рублей, чтобы вы с ней поторговались
Всем привет! Я написал бесполезного бота с нейронкой с которым можно поболтать, потогроваться и попробовать купить у него гараж ковёр. Апи я оплатил, так что для вас это абсолютно бесплатно, а свои корыстные мотивы я расскажу ниже.
Цель этой игры (если её можно так назвать) - потогроваться с Абдулом и купить у него ковёр. Если что, ковры не настоящие! Никаких сценариев нет, все ковры (кроме одного секретного 👀) и цены придумываются на лету. Никаких дополнительных вводных - просто пошаговая болталка в сеттинге египетского магазина на рынке
Полезность такого бота близка к нулю, но мне было весело с ним болтать, если вы решите попробовать и вам тоже понравится - отпишитесь в комментах, буду рад почитать.
Собственно, зачем?
прост ¯\_(ツ)_/¯
Но вообще у меня несколько целей и они все технические. Расскажу их тем 2-м людям, дочитавшим до сюда;
Я уже больше 10 лет пишу всяких телеграм ботов и всё это время писал их почти исключительно на библиотеке python-telegram-bot на, удивительно, питоне. И питон мне нравится как раз скоростью разработки - хуяк-хуяк и в продакшен. Но мой главный и самый любимый язык программирования - это PHP. И вот на нём подходящего фреймворка для написания ботов я так и не нашел. Поэтому решил написать свой.
Так что первая причина - потестить свой фреймворк для телеграм ботов на php на реальном проекте. Рекомендовать его я никому не буду, потому что он в глубочайшей пре-альфе, без документации и тем более без стабильного апи. Будет хорошо, если заработает в принципе.
Но это не единственное, что я хочу потестить! Есть ещё сам принцип общения с нейронными чат-ботами, который я бы хотел улучшить. Дело в том, что классический подход - отправлять каждое сообщение пользователя в нейронку и пересылать ответ из неё мне кажется очень скучным и малофункциональным и меня давно витала в голове идея как добавить к этому общению живости и контроля с помощью вызова функций (кто знает тот поймёт). В подробностях рассказывать не буду, но кому интересно - может почтить эту часть в исходном коде бота.
Если вкратце - то у бота появляется внутренний монолог и настроение, которое может меняться и должно влиять на характер ответов. И это вторая причина создания бота - первый пристрелочный вариант реализации фреймворка для персонажей.
Ну и самая главная причина - развлечь вас, дорогие пикабушники и пикабушницы. Надеюсь, вам понравится :)
Спасибо за внимание
Роборука играет в "камень, ножницы, бумага"
Понравилось, как эта роборука, оснащённая искусственным интеллектом, играет в игру «Камень, ножницы, бумага». Особенно мне нравится её реакция на проигрыш.
Источник: https://t.me/A4UAI/35






