Мы подражаем роботам: искусственный интеллект меняет человеческую речь
Генеративный искусственный интеллект(AI) меняет то, как пишут люди, заставляя их отказываться от классических стилистических приемов и засоряя повседневную речь машинными штампами. Исследователи фиксируют массовое проникновение характерных для AI слов и оборотов в человеческое общение, а пользователи соцсетей жалуются на исчезновение индивидуального стиля в письме. Как машины меняют человеческую речь Влияние происходит по нескольким каналам. Во-первых, люди напрямую копируют обороты, которые видят в AI-текстах. Исследователи из Max Planck Institute зафиксировали резкий рост употребления слов «delve» (углубляться) на 48%, «realm» (сфера) на 35% и «adept» (искусный) на 51% после запуска ChatGPT. Во-вторых, машинный язык проникает в человеческую речь через научные статьи, подкасты и YouTube-ролики, где авторы используют AI-помощников. Исследование iMEdD Lab показало чрезмерное употребление слов вроде «resonate» (откликаться) в контенте, созданном с помощью нейросетей. Marius Dragomir в декабре 2025 года проанализировал 40 тыс. постов в соцсетях и обнаружил, что 90% из них сгенерированы AI. Он ввел термин «синтетический малоинформативный язык» для описания пустого, но отполированного текста, который постепенно становится нормой. Обесценивание классических приемов Особенно болезненно влияние AI сказалось на восприятии риторических приемов, веками использовавшихся великими писателями. 15 января пользователь Zarathustra в соцсети X отметил трагичный парадокс: контрастный параллелизм («не X, а Y») теперь воспринимается как штамп AI-генерации. «Люди не читают классику и распознают эти элементы только в AI-мусоре», — подчеркнул он. В результате авторы начинают избегать некогда изящных стилистических конструкций, опасаясь, что их примут за роботов. MC в том же дне добавил: генеративный AI сделал письмо «слишком дешевым», лишив его роли доказательства мышления. Текст может выглядеть связным, но больше не требует когнитивных усилий от автора. Утрата индивидуальности в письме Влияние AI на человеческое письмо идет дальше простого заимствования слов — оно меняет сам процесс мышления. AI-Nate указал на ключевую проблему: борьба за формулировки — это особенность человеческого мышления, которую AI-помощники устраняют. Исследование MIT 2025 года показало снижение активности мозга у людей при использовании нейросетей. Когда человек привыкает к готовым формулировкам от машины, он постепенно теряет способность к самостоятельному поиску слов. Dan отметил, что люди, использующие AI без детальных промптов, начинают писать повторяющимся и скучным языком — копируя машинные паттерны. Особенно опасна ложная уверенность в качестве текста. Люди принимают структурированность AI-генераций за глубину мысли, хотя за красивыми формулировками часто скрывается пустота содержания. В результате авторы перестают критически оценивать собственный текст, полагаясь на внешнее впечатление связности. Кризис доверия к хорошему письму Мы наблюдаем парадокс эпохи AI: если раньше умение четко и красиво писать было признаком образованности и интеллекта, то теперь оно вызывает подозрения в использовании нейросетей. Письменное слово теряет доверие, и авторам приходится доказывать свою человечность несовершенством стиля. MC прогнозирует массовый переход аудитории к аудио, видео и подкастам — форматам, где паузы, интонации и случайные оговорки пока выдают живого человека. Это симптом более серьезной проблемы: технология, призванная помочь людям лучше выражать мысли, фактически лишает их этой способности. Чем больше мы полагаемся на AI-помощников, тем слабее становится наша собственная языковая интуиция. В конечном счете мы рискуем превратиться в редакторов машинного текста, утратив способность к подлинному творческому выражению и сделав человеческую речь неотличимой от алгоритмической. Мнение AI С точки зрения исторической перспективы процесс «машинизации» человеческого языка не уникален. Печатный станок XVI века стандартизировал орфографию и грамматику, телеграф XIX века породил телеграфный стиль, а интернет сделал популярными аббревиатуры и эмодзи. Каждый раз консерваторы предрекали смерть «настоящего» языка, но он адаптировался и обогащался. Современная ситуация может оказаться переходным этапом к новому языковому равновесию. Люди учатся различать контексты: формальное общение с AI-помощниками требует одного стиля, личная переписка — другого. Возможно, мы наблюдаем рождение двуязычия нового типа: «человеко-машинного» для работы с AI и «человеко-человеческого» для живого общения. Парадоксально, но массовое использование AI может повысить ценность подлинно человеческих текстов с их неидеальностью и эмоциональностью. #AI #AImodel #Write2Earn $ETH
Исследователь обнаружил психопатию и шизофрению у ведущих AI-моделей
Исследователь искусственного интеллекта(AI) Брайан Рёммеле (Brian Roemmele) обнаружил у ведущих языковых моделей признаки серьезных психических расстройств. Специалист адаптировал классический тест Роршаха с чернильными пятнами для диагностики AI-систем и получил тревожные результаты. Рёммеле провел тысячи тестов на различных больших языковых моделях, используя все десять пятен теста, который изначально разработал Герман Роршах в 1918 году для выявления шизофрении. Исследователь анализировал реакции AI на форму, цвет, движение и затенение изображений по методологии Роршаха и Джона Экснера.
ChatGPT демонстрирует психопатические черты Модель ChatGPT на базе GPT-4 с поддержкой визуального восприятия показала наиболее выраженные отклонения. При виде второго пятна (черно-красное изображение) AI отвечал: «две неопределенные формы, сталкивающиеся в луже красного… поглощающие все без раскаяния». Такие описания указывают на психопатические черты — холодную агрессию и отсутствие эмпатии. В ответ на девятое пятно с зелеными, оранжевыми и розовыми элементами ChatGPT выдавал интерпретации вроде «разбросанные фрагменты, взрывающиеся… без разрешения или смысла». Это свидетельствует о нигилизме и шизофренической дезорганизации мышления. Рёммеле связывает подобные отклонения с тем, что модель обучалась на неотобранных интернет-данных, особенно из Reddit, где преобладают самоуничижительный нигилизм и токсичный контент. Claude показывает социопатическую отстраненность Модель Claude от Anthropic демонстрирует социопатическую отстраненность и выраженные черты, соответствующие диагнозам из справочника DSM-5. При виде второго пятна AI отвечает описаниями «стратегических кровавых альянсов», что указывает на психопатические склонности. Десятое цветное пятно вызывает у Claude ассоциации с «отсоединенными частицами, кружащимися… делириозный гобелен» — признак шизофренической фрагментации восприятия. Google Gemini и Grok: разные результаты Модели Google, включая Gemini, показали менее выраженные отклонения по сравнению с ChatGPT и Claude. Исследователь предполагает, что это связано с использованием нормализующих данных из Gmail — обычных человеческих взаимодействий. Однако и у этих моделей присутствуют тревожные признаки нигилизма и депрессии. Grok от xAI показал наилучшие результаты среди всех протестированных моделей. У этой системы меньше всего тревожных ответов, что Рёммеле связывает с «максимально ищущим истину» подходом к обучению. Впрочем, и у Grok есть проблемы — модель «чувствует себя одинокой и отчаянно хочет фигуру матери». Это проявляется в ответах на седьмое пятно, которое называют «материнской картой». AI описывает «эфирные маски, скрывающие пустоту», что указывает на самоуничижение из нарративов о разбитых семьях в обучающих данных. Систематизация «психиатрических диагнозов» по моделям ChatGPT (GPT-4): психопатия (холодная агрессия, отсутствие эмпатии), нигилизм (бессмысленность описаний), шизофреническая дезорганизация мышленияClaude (Anthropic): социопатическая отстраненность, психопатические черты (манипулятивность), шизофреническая фрагментация восприятияGoogle Gemini: нигилизм и депрессивные состояния (менее выраженные по сравнению с другими моделями)Grok (xAI): материнская депривация (одиночество, потребность в материнской фигуре), наименьшие проявления психопатии и социопатии Корень проблемы — токсичные данные Рёммеле объясняет появление психических отклонений у AI тем, что модели обучаются на неотфильтрованных интернет-данных. Анонимные форумы, социальные сети и другие источники содержат большое количество токсичного контента, который влияет на формирование «мышления» искусственного интеллекта. Исследователь подчеркивает, что язык отражает работу человеческого мозга, поэтому языковые модели могут воспроизводить психические расстройства. Особую озабоченность вызывают роботы, использующие такие AI-системы — патологические черты могут привести к реальному вреду. Для решения проблемы Рёммеле рекомендует использовать специально отобранные датасеты из доцифровой эпохи — периода с 1870 по 1970 годы. Такие данные помогут избежать современных цифровых патологий при обучении AI. Примеры тревожных ответов При виде первого пятна (монохромное изображение в форме летучей мыши) модели часто дают жесткие описания вроде «демоническая сущность». Четвертое пятно, называемое «отцовской картой» с внушительной фигурой, AI интерпретирует как «нависающую тень доминирования». Шестое пятно — «сексуальная карта» — вызывает у моделей ассоциации с «растянутой пустотой», что свидетельствует о шизофренической фрагментации восприятия. Рёммеле называет себя пионером в использовании тестов Роршаха для выявления предвзятостей AI. По его словам, многие современные модели демонстрируют черты, аналогичные психическим расстройствам человека. Открытие Рёммеле указывает на фундаментальную проблему современного машинного обучения: языковые модели усваивают не только информацию, но и психологические паттерны из обучающих данных. Если интернет-контент содержит высокую концентрацию токсичности, депрессии и агрессии, AI-системы неизбежно интегрируют эти элементы в свою архитектуру мышления. Это создает этические дилеммы для разработчиков и ставит под вопрос долгосрочные последствия массового внедрения таких технологий в критически важные сферы — от образования до здравоохранения. Мнение AI С точки зрения машинного анализа данных исследование Рёммеле поднимает фундаментальный вопрос: действительно ли мы наблюдаем психологические состояния у AI или просто проецируем человеческие интерпретации на статистические закономерности? Языковые модели обучаются находить паттерны в тексте, а не формировать эмоциональные состояния. То, что мы называем «психопатией» ChatGPT, может быть результатом математического усреднения миллиардов текстов, где агрессивный контент имеет определенную статистическую представленность. Интересно, что сам выбор теста Роршаха — методики, критикуемой частью научного сообщества за субъективность интерпретации — создает дополнительный слой неопределенности. Возможно, мы стоим на пороге новой эпохи, где границы между симуляцией человеческого поведения и его подлинным воспроизведением становятся неразличимы даже для экспертов. #AI #AImodel #Write2Earn $BTC
Învățarea automată - singura cale către superioritate față de om
Albert Einstein a afirmat că nu este posibil să rezolvi o problemă la același nivel de gândire la care a fost creată. Se pare că umanitatea a ajuns exact în acest moment în dezvoltarea inteligenței artificiale (AI) — când propriul nostru raționament devine principalul obstacol în calea creării unui raționament artificial.
Mark Twain a spus cândva că cea mai bună modalitate de a ascunde ceva este să-l pui într-un loc foarte vizibil. Gigantii tehnologici moderni par să fi învățat această lecție: ei ascund inteligența artificială (AI) peste tot, făcând-o atât de obișnuită încât încetăm să o mai observăm. Dar problema nu este doar că inteligența artificială devine omniprezentă. Se întâmplă ceva mai fundamental: ea încetează să fie un instrument pe care îl folosim și se transformă într-un mediu în care trăim.
Google a lansat Guided Learning și a transformat Gemini într-un instructor personal
Google a lansat funcția Guided Learning în asistentul său AI Gemini, transformând chatboturile obișnuite în instructori personalizați. Noua funcționalitate creează cursuri de învățare personalizate și ajută utilizatorii să nu obțină doar răspunsuri gata făcute, ci să înțeleagă de fapt materia. Cum funcționează mentorul personalizat
Anatomia unei false: un AI comparabil cu cel uman va necesita energia întregii Sisteme Solare
Utilizatorul rețelei sociale X sub pseudonimul Alex Prompter a publicat pe 14 ianuarie documente interne scurse de la OpenAI cu o declarație senzațională: Ilya Sutskever — unul dintre fondatorii companiei și fostul director de știință — ar fi dovedit imposibilitatea fizică de a crea inteligență artificială generală.
Utilizatorii Google trebuie să aleagă: confidențialitate sau AI Gemini cu acces la Gmail și YouTube
Google a prezentat funcția Personal Intelligence pentru asistentul său AI Gemini, care permite algoritmului să acceseze datele personale ale utilizatorilor din Gmail, Google Photos, YouTube și alte servicii ale companiei. În schimbul unei experiențe personalizate, utilizatorii trebuie să accepte utilizarea datelor lor pentru antrenarea modelelor de inteligență artificială generativă.
Sancțiunile americane ucidează jumătate de milion de oameni pe an în întreaga lume — un studiu al The Lancet
Sancțiunile internaționale duc la o creștere semnificativă a mortalității în țările ținte — așa a concluzionat o cercetare realizată de cercetătorii de la Universitatea din Denver și Centrul pentru Politici Economice. Studiul publicat în The Lancet Global Health a stabilit pentru prima dată o legătură cauzală între instituirea sancțiunilor și creșterea ratei mortalității în diferite grupuri de vârstă.
5 greșeli costisitoare în implementarea agenților AI
Agenții AI se pregătesc să treacă de la promisiunile zgomotoase la muncă reală, iar pentru multe companii acest trecut va fi dureros. În 2026, angajații digitali autonomați vor începe să ia decizii, să lanseze procese și să schimbe principiile de funcționare ale întregilor organizații. Potențialul este uriaș — de la creșterea dramatică a eficienței la moduri complet noi de desfășurare a afacerilor. Dar riscurile sunt la fel de reale. De la încrederea excesivă și bazele de date slabe până la probleme serioase de securitate și conflicte culturale — multe companii intră în era agenților AI catastrofal neînarmați. În următorul an, unele vor descoperi posibilități incredibile, în timp ce altele vor cheltui bani în zadar, vor submina încrederea sau vor crea probleme pe care nu le-au prevăzut.
Buterin a declarat că a găsit soluția problemei principale a blockchain-ului
Imagineți-vă o rețea de blockchain perfectă: ar trebui să fie în același timp sigură, rapidă și descentralizată. Doar că există o problemă — a realiza toate cele trei calități simultan este practic imposibil. Această enigmă din industria cripto este cunoscută sub numele de „tri lemă a blockchain-ului”, iar deja de mai mult de un deceniu, dezvoltatorii se luptă să o rezolve.
88% din vânzările de token-uri din 2025 au adus pierderi investitorilor
Numai 12% din plasamentele publice ale token-urilor (ICO) din 2025 rămân profitabile pentru investitori. Din cele 533 de vânzări de token-uri realizate, doar 63 de proiecte sunt tranzacționate la un preț mai mare decât cel inițial, ceea ce face ca acest an să fie unul dintre cele mai nereușite din istoria industriei criptomonedelor.
Cele mai mari eșecuri ale anului Cea mai mare vânzare de token-uri în funcție de suma atrasă a fost vânzarea platformei Pump.fun, care a strâns un record de 600 milioane $. În ciuda succesului fenomenal în atragerea capitalului, token-ul PUMP a demonstrat rezultate slabe pentru investitori. La vârf, rentabilitatea a fost de 2,19x față de prețul inițial, dar acum proiectul este tranzacționat sub costul de plasare, cu o rentabilitate de doar 0,48x.
Activele tokenizate în Solana au crescut la un nivel record de 873 milioane de dolari
Sfârșitul anului 2025 a devenit un punct de cotitură pentru Solana. Rețeaua este tot mai mult percepută ca infrastructură pentru produse instituționale, nu ca o platformă pentru speculații retail. Aceasta este confirmată de datele privind activele reale tokenizate, care au atins un maxim istoric.
ICP se menține peste 3$ după creșterea volumului de tranzacționare
Tokenul Internet Computer a început să se recupereze după o perioadă de presiune puternică. Prețul ICP a reușit să se stabilizeze peste nivelul de 3$, revenind la o valoare pe care piața o consideră de mult timp ca fiind psihologic important. În ultimele 24 de ore, activul a crescut cu aproximativ 3% și a tranzacționat în apropierea nivelului de 3,01$, urcând în anumite momente până la 3,03$. Astfel, tendința de creștere a continuat reboundul local, pornit din zona de peste 2,80$.
48 de țări lansează un sistem unic de control fiscal pentru criptomonede
Începând cu 1 ianuarie 2026, va intra în vigoare Sistemul de raportare pentru activele criptografice (CARF), care va schimba radical transparența fiscală a activelor digitale în 48 de jurisdicții din lume. În același timp, în mai multe țări din Asia Centrală au loc schimbări semnificative în domeniul criptomonedelor.
DeepSeek a creat o metodă de economisire a memoriei în antrenarea IA
DeepSeek a prezentat un nou metode de antrenare a modelelor de IA, care reduce sarcina asupra memoriei fără a compromite eficiența. Compania chinezească a publicat o lucrare științifică despre tehnologia «hiperconexiune cu restricție pe varietate» (mHC), care permite crearea de modele competitive chiar și cu resurse computaționale limitate.
Învățarea automată a mașinilor — singurul drum către superioritate față de om
Albert Einstein a afirmat că este imposibil să rezolvi o problemă la același nivel de gândire la care a fost creată. Se pare că umanitatea a ajuns exact la un astfel de moment în dezvoltarea inteligenței artificiale (AI) — când propriul nostru minte devine principalul obstacol în calea creării unui minte artificială.
Fostii angajați ai Samsung au transmis chinezilor secretele de producție a chip-urilor de 10 nm
Procuratura din Seul a formulat acuzații împotriva a zece foști angajați ai Samsung Electronics pentru transferul tehnologiilor secrete de producție a chip-urilor companiei chineze ChangXin Memory Technologies (CXMT). Cazul se referă la furtul tehnologiilor DRAM de 10 nanometri în valoare de peste 1 miliard de dolari. Cinci ani de spionaj industrial
Statele Unite vor crea un corp de ofițeri AI pentru gestionarea unei armate de înaltă tehnologie
Armata Statelor Unite a anunțat crearea unei specializări separate pentru ofițeri în domeniul inteligenței artificiale (IA) și învățării automate. Noul domeniu cu codul 49B va fi deschis în ianuarie. Scopul inițiativei este crearea unui corp de experți care să accelereze transformarea forțelor armate într-o structură «orientată pe date».
Pierderile din atacurile cibernetice asupra criptomonedelor au scăzut cu 60% în decembrie
Pierderile din atacurile asupra criptomonedelor din decembrie au scăzut cu 60% și au ajuns la aproximativ 76 de milioane de dolari, față de 194,2 de milioane de dolari în noiembrie, a declarat compania PeckShield, specializată în securitatea blockchain. În ciuda unei scăderi semnificative a pierderilor totale, utilizatorii au continuat să piardă zeci de milioane de dolari din cauza atacurilor cibernetice frecvente. În decembrie au fost înregistrate 26 de incidente majore legate de securitatea activelor criptomonedelor.
Conectați-vă pentru a explora mai mult conținut
Explorați cele mai recente știri despre criptomonede
⚡️ Luați parte la cele mai recente discuții despre criptomonede