Пишу сайт. Полностью асинхронный. URL меняется динамически. При открытии страницы, берется URL, и в соответствии с этим берутся данные из БД. А пока достаются данные из БД, пользователю показывается анимация загрузки.
Вопрос: Будет ли подобный сайт парситься поисковиками? Если да, — то как (?!). Ведь теоретически, это не возможно. У роботов нет поддержки JavaScript. Или я чего-то не понимаю??
Каковы другие минусы асинхронности? (Исключая выключенный JS и старые браузеры)
Смотря на каком фрейморке сделан сайт. К примеру, Google умеет индексировать сайты на Angular, а вот Яндекс их "не видит". Поэтому для SEO рекомендуется делать html-версию сайтов для роботов.
Наиболее простым способом генерации HTML-версии сайта является использование headless-браузера для ренгеринга страниц, например, PhantomJS. Можно делать это на лету или же отдавать кэшированные заранее страницы.
Сборка персонального компьютера от Artline: умный выбор для современных пользователей