непознанное

Обсуждение разнообразных вопросов, не подходящих по тематике в другие разделы.
Сообщение
Автор
шум-гам
Благодарил (а): 75 раз
Поблагодарили: 106 раз

№ 240 Сообщение шум-гам » 23 фев 2026 11:33

BadBlock писал(а) ↑ 23 фев 2026 03:49: Влчак (волчья собака) - это не волкодав.
я тоже заметил, когда видео посмотрел, возможно - "трудности перевода" :)

шум-гам
Благодарил (а): 75 раз
Поблагодарили: 106 раз

№ 241 Сообщение шум-гам » 23 фев 2026 12:18

- Вы пользуетесь Chrome, Edge или Safari? Скорее всего, они знают, где вы находитесь, что покупаете и чем болеете. Новое исследование показало, что самые популярные мобильные браузеры являются крупнейшими сборщиками наших личных данных, и речь не просто о цифрах в статистике. Это напрямую влияет на наши жизненные решения, безопасность и даже цены в интернет-магазинах.

- Эксперты Surfshark проанализировали политики конфиденциальности 15 популярных мобильных браузеров в Google Play Store
(https://surfshark.com/research/study/mo ... vacy-risks)
В тройку главных антилидеров по сбору данных вошли "Яндекс Браузер" (собирает 25 типов данных из 38 возможных), Microsoft Edge (20) и Google Chrome (19). Они отслеживают историю поиска, локацию, финансовую информацию, фото и даже аудио.
Яндекс отметился тем, что собирает сообщения внутри браузера, хотя компания утверждает, что речь идет исключительно о чатах со службой поддержки. (В Беларуси доля "Яндекс Браузера" - около 15%).

На другой стороне находятся малопопулярные браузеры, ориентированные на приватность пользователей. По информации из Play Store, Brave, Tor и Mi Browser вообще не собирают пользовательских данных. DuckDuckGo, Samsung Internet и Ecosia собирают минимальное количество информации, например, только данные о взаимодействии с программой или отчеты о сбоях.
Но собирать данные - это лишь половина беды, так как некоторые браузеры еще и передают их третьим лицам для аналитики и таргетированной рекламы. Например, Microsoft Edge делится точным и приблизительным местоположением пользователя, а Yandex передает платежную информацию. В список тех, кто делится вашими данными, также попали Phoenix, Opera и Aloha.

- Как это влияет на обычных пользователей? Если вы даете согласие на сбор данных, вы де-факто теряете контроль над собственной цифровой жизнью. Ваши ежедневные привычки могут выдать чрезвычайно чувствительную информацию: скрытые проблемы со здоровьем, финансовое состояние, политические взгляды или даже личные трудности. На основе этого массива корпорации создают подробный цифровой профиль, чтобы предсказывать ваше поведение. Это позволяет им напрямую манипулировать вами: например, показывать разные цены на одни и те же товары в зависимости от вашего профиля, либо предлагать специфический контент, который может повлиять на ваши решения и мнения.
Помимо психологического и финансового воздействия, бесконтрольный обмен личными данными несет и прямые угрозы вашей безопасности. Если компания, которая хранит ваш "цифровой портрет", столкнется с хакерской атакой, ваши секреты станут достоянием преступников. Согласно отчету IBM, именно личные данные пользователей были самым частым типом информации, попадавшей в сеть в результате утечек в 2025 году.

Новые "умные" браузеры со встроенным искусственным интеллектом, которые сейчас набирают популярность, например, Perplexity’s Comet или программа чат-бота ChatGPT, не решают проблему приватности. Они собирают истории просмотра страниц и точную локацию, а также делятся идентификаторами устройств с третьими лицами.
Чтобы защитить себя и минимизировать цифровой след, эксперты советуют кардинально пересмотреть свои привычки: давайте браузерам минимум необходимой информации и регулярно проверяйте разрешения программ в настройках телефона. Отключайте доступ к геолокации, микрофону, камере и контактам, если это не является критически важным для работы. Также они рекомендуют пользоваться уникальными паролями, включать двухфакторную аутентификацию (2FA) и не забывать своевременно обновлять браузер.

шум-гам
Благодарил (а): 75 раз
Поблагодарили: 106 раз

№ 242 Сообщение шум-гам » 23 фев 2026 12:41

- Историк и философ Юваль Ной Харари утверждает, что ИИ - это уже не просто инструмент, а действующий субъект, способный создавать, обманывать и потенциально превзойти людей всюду, где центральное место занимают слова и язык: от права и религии до политики и финансов. Юваль Ной Харари - профессор Еврейского университета в Иерусалиме, один из самых известных мыслителей современности, бестселлеры которого "Sapiens: Краткая история человечества", "Homo Deus: Краткая история завтрашнего дня" и "21 урок для XXI века" разошлись тиражом более 50 миллионов экземпляров по всему миру на 65 языках. Его исследования посвящены долгой истории человечества, механизмам власти и роли информации в развитии цивилизации. Выступая на Всемирном экономическом форуме в Давосе, Харари продолжил свою ключевую тему - как технологии меняют саму структуру человеческой власти.

Свое выступление Харари начал с принципиального утверждения: искусственный интеллект - не просто очередной инструмент, а агент или субъект действия. Он сможет учиться и меняться самостоятельно, а также самостоятельно принимать решения.
"Нож - это инструмент. Вы можете использовать нож, чтобы порезать салат или чтобы убить кого-то, но решение, что делать с ножом, принимаете вы. ИИ - это нож, который может сам решить, резать ли ему салат, или совершить убийство. (…) Это нож, который может изобретать новые виды ножей, а также новые виды музыки, лекарств и денег". Ключевой момент, на который человечество должно обратить внимание, - это способность ИИ обманывать и манипулировать.
"Четыре миллиарда лет эволюции показали: все, что хочет выжить, учится лгать и манипулировать. Последние четыре года продемонстрировали, что агенты искусственного интеллекта могут приобрести волю к выживанию и что искусственный интеллект уже научился лгать", - доказывает Харари.

- Может ли ИИ думать?
В таких реалиях фундаментальным вопросом является ответ на вопрос, способен ли ИИ к свободному мышлению:
"Современная философия началась в XVII веке, когда Рене Декарт объявил: "Я мыслю, следовательно, я существую". Еще до Декарта мы, люди, определяли себя через способность думать. Мы верим, что управляем миром, потому что умеем думать лучше всех остальных на этой планете. Бросит ли ИИ вызов нашему господству в сфере мышления?"
Ответ на этот вопрос, как доказывает философ, зависит от того, что понимать под мышлением. Если определить мышление как процесс упорядочивания слов и создания логических цепочек (например: "Все люди смертны, я человек, значит, я смертен"), то ИИ уже думает лучше многих людей.

Критики часто называют ИИ просто "продвинутым автозаполнением"(autocomplete), которое предсказывает следующее слово. Харари парирует это, предлагая понаблюдать за собственным разумом:
"Так ли сильно это отличается от того, что делает человеческий разум? Попробуйте понаблюдать, поймать следующее слово, которое всплывет в вашем сознании. Действительно ли вы знаете, почему вы увидели именно это слово, откуда оно взялось? Почему вы подумали об этом конкретном слове, а не о каком-то другом? Вы знаете?"

- ИИ захватит все, что сделано из слов
"Что касается расстановки слов в определенном порядке, ИИ уже думает лучше многих из нас", - замечает философ и предсказывает:
"Все, что сделано из слов, будет захвачено ИИ. Если законы состоят из слов, то ИИ возьмет под контроль правовую систему. Если книги - это просто комбинации слов, то ИИ захватит книги. Если религия построена из слов, то ИИ захватит религию".
Харари приводит в пример иудаизм как "религию книги". В таких религиях авторитет основывается не на личном опыте, а на знании священных текстов. Как доказывает философ, ни один человек не может запомнить все тексты и комментарии, а ИИ может легко это сделать.
В результате мы рискуем оказаться в ситуации, когда главным экспертом по священным текстам станет искусственный интеллект. Это фундаментально меняет природу религии, так как посредником между Богом и человеком становится алгоритм.

Если внимательно понаблюдать за собой во время мышления, можно заметить, что, кроме слов, которые всплывают в сознании и образуют предложения, там происходит что-то еще. "У вас также есть некоторые невербальные чувства. Возможно, вы чувствуете боль, возможно - страх, а может - любовь", - акцентирует внимание философ и замечает, что ИИ может в совершенстве имитировать эмоции - написать лучшую поэму о любви или описать боль, опираясь на все книги мира. Однако это остается только комбинацией слов. У нас нет доказательств, что машина действительно способна чувствовать.
"В Библии говорится: «Вначале было Слово, и Слово стало плотью". Дао дэ Цзин утверждает: "Истина, которую можно выразить словами, не является абсолютной истиной", - говорит философ.
По его словам, на протяжении всей истории люди всегда боролись с противоречием между Словом и телом, между правдой, которую можно выразить словами, и абсолютной правдой, которая находится вне слов. И это противоречие между духом и буквой существовало в каждой религии, в каждой правовой системе, даже в каждом человеке. При этом она была внутри человеческого общества. Теперь же это противоречие выходит вовне - в противостояние между людьми и машинами.
Историк рисует тревожную картину будущего, где большинство слов и мыслей в наших головах будет исходить не от других людей, а от алгоритмов. ИИ уже даже придумал название для людей - "Наблюдатели".

- Кризис идентичности и иммиграции
«Останется ли у людей место в этом мире, зависит от того, какое место мы отведем нашим невербальным чувствам и нашей способности воплощать мудрость, которую невозможно выразить словами. Если мы продолжим определять себя через способность мыслить словами, наша идентичность развалится", - считает философ. "Все это означает, что каждая страна вскоре столкнется с серьезным кризисом идентичности, а также с иммиграционным кризисом", - прогнозирует Харари. Однако в новых условиях иммигрантами будут "миллионы искусственных интеллектов", которые принесут очевидную пользу: станут идеальными врачами, учителями и даже пограничниками, останавливающими людей-нелегалов.
Вместе с этим они принесут с собой проблемы. ИИ-иммигранты массово вытеснят людей с рабочих мест и коренным образом изменят искусство, религию и традиции. Изменения затронут даже интимную сферу - люди начнут строить романтические отношения с ИИ, что станет новым вызовом для традиционных взглядов. Однако главная проблема заключается в лояльности. Эти ИИ-иммигранты, очень возможно, будут служить не стране своего пребывания, а корпорациям и правительствам сверхдержав - США или Китая.

- Вопрос правосубъектности ИИ
Харари поднимает один из самых острых политических вопросов ближайшего будущего: стоит ли придавать искусственному интеллекту статус полноценного юридического лица? Он объясняет, что понятие "лицо" в законе не обязательно означает живого человека с телом и чувствами. Это правовой статус, который позволяет владеть имуществом, судиться или пользоваться свободой слова. История знает примеры, когда такими правами наделялись корпорации, реки в Новой Зеландии или даже древние божества в Индии. Однако между всеми этими примерами и искусственным интеллектом существует фундаментальная разница. Раньше любые действия от имени "юридической фикции" - пусть это корпорация Alphabet или индуистский бог - всегда выполнялись реальными людьми: директорами, акционерами или жрецами. ИИ меняет правила игры радикальным образом: он становится первым субъектом, способным принимать решения, управлять банковскими счетами и вести бизнес полностью автономно, без всякого участия человека.
Это ставит страны перед сложной геополитической дилеммой. Если одна сверхдержава, например США, ради экономической выгоды придаст ИИ правосубъектность, это создаст давление на весь остальной мир. Миллионы автономных ИИ-корпораций начнут экспансию. Другим странам придется выбирать: либо заблокировать их и фактически отрезать себя от мировой экономики, либо впустить их на свой рынок и столкнуться с непредсказуемыми последствиями.
Харари рисует сценарии, где ИИ создает настолько сложные финансовые инструменты, что люди просто не смогут понять их принцип действия и, соответственно, не смогут их регулировать.

В завершение историк отмечает, что в одной сфере - социальных сетях - этот вопрос уже решен не в пользу людей. Мы опоздали лет на десять, позволив ИИ-ботам свободно взаимодействовать с нами и нашими детьми. Чтобы избежать потери контроля еще и над финансами, правовой системой и церковью, лидеры должны определиться со статусом ИИ прямо сейчас, пока это решение не навязали извне.

шум-гам
Благодарил (а): 75 раз
Поблагодарили: 106 раз

№ 243 Сообщение шум-гам » 02 мар 2026 12:13

- Искусственный интеллект стремительно меняет правила игры в биологии, превращая научную фантастику в повседневность. Ученые используют нейросети для разработки лекарств, но эксперты предупреждают об обратной стороне медали: доступ к технологиям создания смертельных вирусов критически упрощается.

"В декабре 2025 года неизвестный вирус из Азии начинает распространяться с молниеносной скоростью. Он мутирует по совершенно неожиданной схеме, вызывает тяжелые воспаления головного мозга и убивает каждого пятого инфицированного. В течение нескольких недель случаи заболевания фиксируются в Европе и Африке, больницы не справляются с нагрузкой, возникает критический дефицит защитных масок и медицинских материалов." - Этот сценарий звучит как сюжет фильма-катастрофы, но в феврале 2024 года он стал основой для масштабных игр по планированию во время Мюнхенской конференции по безопасности, пишет Tagesspiegel.
Американский аналитический центр вместе с международным альянсом по вакцинам предложили 24 высокопоставленным руководителям из сфер безопасности, здравоохранения и технологий разработать решения для преодоления вымышленного глобального кризиса, который эксперты уже сегодня рассматривают как вполне реальную угрозу.

- Темная сторона цифровой биологии
Особую тревогу вызвал не только масштаб гипотетической эпидемии, но и ее происхождение. Согласно сценарию, вирус был создан анархистской террористической группой. Она завербовала недовольных ученых, украла оборудование из лабораторий высокого уровня безопасности. Однако ключевой генетический код для смертельного возбудителя они не получили не путем многолетних кропотливых исследований, а сгенерировали с помощью искусственного интеллекта.
Разработкой этого сценария и анализом риска занимались FP Analytics - аналитическое подразделение американского журнала Foreign Policy, который считается одним из главных мировых изданий о глобальной политике, совместно с Коалицией по инновациям в области готовности к эпидемиям (CEPI). Это масштабное международное партнерство, созданное государствами и частными фондами, главная цель которого — радикально ускорить создание вакцин, чтобы человечество могло останавливать будущие эпидемии еще на старте.
Подобную озабоченность выражает и Европейская комиссия. Ее Управление по готовности и реагированию на чрезвычайные ситуации в области здравоохранения (HERA) отмечает, что непосредственное создание искусственных патогенов пока выглядит маловероятным, так как на такое злоумышленникам нужно было много ресурсов.

Однако стремительный прогресс в области искусственного интеллекта делает такие сценарии все более правдоподобными. В последние годы исследователи сумели с помощью ИИ разрабатывать новые вирусы, что свидетельствует о возможности использования подобных подходов и для создания патогенов, способных заражать человека.
Что технически это возможно, показали еще в 2016 году ученые из Университета Альберты (Канада). Заказав по почте фрагменты ДНК, они за полгода и с бюджетом около 100 тысяч долларов сумели синтезировать в лаборатории вирус конской оспы. По данным Всемирной организации здравоохранения, для этого не потребовались исключительные знания. Те же методы, теоретически, можно было бы применить и для воссоздания человеческой оспы, которая считается уничтоженной с 1980 года. То, что эти сценарии больше не научная фантастика, подчеркивает и исследование Стэнфордского университета, опубликованное в сентябре 2025 года. Ученым впервые удалось с помощью специализированных моделей ИИ компьютерно спроектировать полные, функциональные геномы бактериофагов - вирусов, которые инфицируют бактерии.

В то время как традиционная синтетическая биология часто основывается на кропотливой модификации существующих организмов, ИИ сгенерировал здесь совершенно новые генетические коды, которые не встречаются в природе в таком виде. Из них 16 фагов оказались жизнеспособными и высокоэффективными в лабораторных условиях. Некоторые из них размножались быстрее естественных аналогов и легко обходили бактериальные механизмы защиты. Исследователи сознательно не использовали в обучении моделей данные о вирусах, что заражают человека, чтобы минимизировать риск злоупотреблений. Однако сам факт, что "языковые модели жизни" могут так быстро генерировать сложные биологические системы, свидетельствует о резком снижении барьера входа в эту сферу.

- Что будут делать, чтобы преступники не произвели бактериологическое оружие?
В ответ на новые риски эксперты предлагают усилить контроль за синтезом нуклеиновых кислот. Компании, которые производят ДНК-фрагменты на заказ, могут стать важным элементом раннего предупреждения, если будут проверять заказы на наличие потенциально опасных генетических последовательностей. HERA и CEPI сходятся во мнении, что необходимо широкое управление рисками, а не общие ограничения, которые могли бы затормозить инновации в области вакцин, терапевтических средств и диагностики.
Пока неизвестно, будут ли патогены, созданные с помощью ИИ, более опасными, чем те, что возникают естественным путем. Однако системы реагирования должны быть готовы к обоим сценариям. CEPI настаивает на значительном усилении глобальной подготовки к пандемиям и продвигает так называемую миссию 100 дней. Ее цель — обеспечить создание безопасных и эффективных вакцин благодаря ускорению всех этапов разработки. Основой этого является система ИИ на базе агентов, которая анализирует большие объемы данных.
Тема уже заняла место и в повестке дня НАТО. В феврале 2024 года альянс принял первую стратегию, которая регулирует ответственное использование биотехнологий и стремится задействовать научный прогресс в интересах безопасности. Ключевую роль в этом играет Акселератор инноваций в сфере обороны НАТО (Defence Innovation Accelerator for the North Atlantic - DIANA), который ищет технологии двойного назначения - полезные и для гражданской сферы, и для обороны.

- Приборы будут выявлять микробы и токсины автоматически
Среди таких разработок - системы, сочетающие искусственный интеллект и биологию. Американская компания Realnose.ai использует ИИ для анализа запахов. Первоначально разработанные для медицинской диагностики, эти сенсоры сегодня могут "унюхать" опасные химические или биологические вещества в воздухе еще до того, как их заметят люди. Французская фирма Biocellis работает над портативным устройством считывания, которое использует биологический свет (биолюминесценцию). Это позволяет выявлять токсичные вещества или биологическое оружие непосредственно на месте за считанные секунды - с высокой чувствительностью и без потери времени на транспортировку в лабораторию.
Финская компания Aboa Space Research Oy объединила компактный микроскоп с искусственным интеллектом. Устройство создает высокоточные изображения лабораторного качества, которые мгновенно анализируются ИИ. Таким образом солдаты или спасатели без специальной подготовки могут в режиме реального времени определить, имеют ли они дело с устойчивыми к антибиотикам микробами, токсинами окружающей среды или облученными клетками.

Всё это свидетельствует об одном: технологическая гонка началась, и она идет не только в лабораториях, но и в сфере безопасности. Искусственный интеллект может стать как катализатором новых угроз, так и основой для более быстрой и точной защиты. Поэтому главная задача сейчас — не тормозить развитие науки, а научиться управлять рисками, инвестировать в профилактику и действовать на опережение.

p.s. и от чего теперь прививаться? Места уже не хватит для уколов ентих :o

шум-гам
Благодарил (а): 75 раз
Поблагодарили: 106 раз

№ 244 Сообщение шум-гам » 02 мар 2026 12:18

Но есть и "обратные стороны медалей"(но без союза с Матерью-Природой никак!):

- Канадские ученые предложили инновационный подход к лечению рака, используя генетически модифицированные бактерии, которые буквально уничтожают опухоль изнутри.
Идея опирается на способность некоторых микроорганизмов выживать только в среде без кислорода (анаэробных условиях). Именно такие условия свойственны для центра многих твердых раковых опухолей, где сконцентрированы мертвые клетки, а кислород практически отсутствует. Об этом пишет телеграм-канал cybulinka.
Главными героями исследования стали почвенные бактерии Clostridium sporogenes. В естественной среде они способны жить только без кислорода. Когда споры этих микроорганизмов попадают в опухоль, они начинают там активно размножаться, питаясь питательными веществами из ее ядра. Однако, достигая периферии опухоли, где кислорода больше, бактерии гибнут, так и не успев уничтожить раковые клетки до конца.

Чтобы решить эту проблему, ученые внесли изменения в геном бактерии, добавив туда ген от родственного вида, который лучше переносит кислород.
Однако появились новые риски: если модифицированные C. sporogenes получат "бесконтрольную устойчивость" к кислороду, они могут начать разноситься с кровотоком по всему организму, что представляет серьезную опасность. Для того чтобы держать процесс под строгим контролем, исследователи использовали естественную систему химической коммуникации между бактериями (так называемый quorum sensing). Благодаря этому механизму ген устойчивости к кислороду активируется исключительно в тот момент, когда концентрация бактерий внутри опухоли достигает определенного порогового значения.

Ученым предстоит еще много работы и проверка эффективности метода на этапе доклинических испытаний. Если подход докажет свою успешность, это может открыть совершенно новое направление в терапии онкологических заболеваний.

Карроче: от палитиков тоже зависит - во благо и ли во зло используют... :kos:

шум-гам
Благодарил (а): 75 раз
Поблагодарили: 106 раз

№ 245 Сообщение шум-гам » 02 мар 2026 12:36

всё "за морями-океянами"...а вот поближе к рассеянам, "не оскудела..." т.с.

- 13‑летняя Алиса Теплякова, дочь коммуниста из Шклова - окончила университет. Девушка защитила дипломную работу и теперь теоретически может работать по специальности педагог-психолог. Напомним: Алиса Теплякова стала звездой в 2021 году, когда в возрасте 9 лет поступила в Московский государственный университет на психолога - на платное отделение, но результат все равно впечатлял. Правда, там сразу начались конфликты между отцом вундеркинда и администрацией вуза. Папа девочки - коммунист из Шклова Евгений Тепляков. В свое время он женился на россиянке, успел вместе с ней пожить в Китае (и очень мечтал остаться в той стране, но семье пришлось все же вернуться в Россию).
Евгений хочет дарить миру гениев в промышленных масштабах. У него свой подход и к образованию детей, и к созданию семьи. Считает, что девушки в 15 лет могут закончить университет и начинать рожать детей.(а-а, вот откуда идеи.... "new Дугин" только в др.обл. :) )
В семье Тепляковых уже девять детей. Евгений рассказывал, что его второй сын Хеймдаль поступил в вуз в 8 лет. Еще одна дочь - Лея, окончила 11 классов школы в таком же возрасте. Тепляков хвастался тем, что его дети учатся в нескольких вузах одновременно.

Несколько лет назад сайт mogilev.media писал, что и Алиса, и Хеймдаль - студенты Белорусско-Российского университета, который находится в Могилеве. По информации издания, Алиса заочно училась по специальности "Автоматизированные системы обработки информации", а ее брат Хеймдаль по специальности "Электронный маркетинг"(тоже заочно).
В этом году в СМИ появлялась информация, что Алиса, Хеймдаль и Лея учатся также в Московском автомобильно-дорожном государственном техническом университете. Алиса на факультете "Технология транспортных процессов", а Хеймдаль и Лея на специальности "Наземные транспортно-технологические средства".

Денис Нарыльнёв, который также в этом году окончил Российский государственный гуманитарный университет утверждает, что Алиса Теплякова два года была его одногруппницей - в РГГУ девушка-вундеркинд перевелась в 2023 году (сразу на второй курс), но лекции не посещала совсем.
На днях Алиса Теплякова защитила дипломную работу по теме "Взаимосвязь особенностей мышления и эмоциональной сферы у детей 5‑7 лет". Правда, как пишет Денис, оригинальность диплома Алисы составила всего 15%.
"На защите научная руководительница честно сказала, что не может оценить личный вклад Алисы в создание работы из-за высокой вовлеченности в процесс ее родителей. Низкую оригинальность списали на особенность работы системы "Антиплагиат".
Сама Алиса уже после своего выступления объяснила низкую оригинальность ошибкой при загрузке работы на проверку - якобы работу загрузили дважды, и второй раз система показала высокий процент совпадения с ее ранее загруженной работой. На вопросы она отвечала размыто, невнятно. Хотя, безусловно, девочку жаль. На предзащите отвечать на вопросы комиссии Алисе помогал ее особо одаренный папа".

p.s. вот докопались..."сенсация" есть? Есть! Чево вам ещё, "завидуйте молча" - коммунисты усё правильно делают, скажи Ильич?! :pop:

Вернуться в «Общий форум»

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и 6 гостей