UProLa

Неокріпші думки

Інший Інтернет

with 3 comments

Чи такого результату прагнули творці Інтернету? Де довгоочікувана семантична павутина? Чому тільки Гугл знає що і де лежить? Навіщо XML у якості бази (попри усю свою збитковість)? Хто сказав, що JavaScript повинен бути стандартом де-факто (попри усю свою хакнутість)? Хто сказав, що на RFC постять тільки хороші ідеї?

Ці та подібні питання мене бентежать уже давно, і вихід я бачу тільки один (якщо ви мене знаєте, то здогадатись не важко) – свій Інтернет.

Свій Інтернет

Разом з тим я багато не хочу.

Всього-лиш розділити дані (пригодні для семантичних зв’язків) (котрі власне і є КОНТЕНТОМ) і сайти (котрі насправді є графічними інтерфейсами “програм”).

Щось типу такого: site://… буде віддавати бінарник програми, котра власне і займається відмальовкою сайту у браузері, а doc://… буде віддавати конкретний шматок контенту, заданого через URI.

Цим самим буде об’єднано JavaScript, CSS і верстка HTML у суцільну нерозривну платформу. Вони ж бо один без одного існують слабо, але разом з тим мають добру модульність. Згодом у цій зв’язці можна буде замінити поганий інструмент на хороший, що призведе тільки до підвищення якості наданих сервісів.

А всі “текстові” та семантично зв’язані документи будуть спокійно хоститись на URL-ах зовсім інших типів у базовій розмітці (той же HTML) або у будь-якому іншому контент-форматі (PDF, PNG, FLV, TEX), причому теги будуть закодовані у самому URL (наприклад, doc://mysite.ua/video/recentvideo/vd01.flv – тут video та recentvideo виступають як теги). І не будуть залежати від стилів та джаваскриптів (популярні елементи типу спойлерів або підсвітки коду можна стандартизувати, якщо буде буря протестів).

Ось так. Коментарі? Пропозиції? Уточнення? Питання аудиторії такого Інтернету, до-речі, не стоїть – ті, кому це потрібно, – знайдуться😉

Written by danbst

Квітень 22, 2012 at 18:06

Оприлюднено в Пости, Програмування

Відповідей: 3

Subscribe to comments with RSS.

  1. Думаю для початку при заході на сайт в індексі буде міститись сама програмка на javascript (можливо скомпільована з coffescript, pyjamas, dart) (javascript віднедавна віртуальна машина🙂 ). Дані на інших сторінках.

    Зараз поки що так не роблять, бо SEO, але це тому що не всі ще читали https://developers.google.com/webmasters/ajax-crawling/docs/getting-started?hl=uk Я теж не читав, але мене SEO поки що не дуже цікавить.

    bunyk

    Квітень 22, 2012 at 19:34

    • Так, тільки я кажу про повноправну відмову від REST у тих місцях, де контентом і не пахне. Про SEO – думаю роздільний сайт-контент тільки спростить роботу бота. Хоча і спростить викрадення даних… але то вже таке.

      danbst

      Квітень 22, 2012 at 21:56

      • >>> контент тільки спростить роботу бота
        воно то звичайно так, але посилання робляться для людей, на сторінки з яваскриптом. а бот не вміє виконувати якваскрипт (і думаю йому не варто, а то ще який небудь вірус підхопить, або заддоситься). Тому от придумують такі хитрі схеми…

        bunyk

        Квітень 23, 2012 at 00:00


Залишити відповідь

Заповніть поля нижче або авторизуйтесь клікнувши по іконці

Лого WordPress.com

Ви коментуєте, використовуючи свій обліковий запис WordPress.com. Log Out / Змінити )

Twitter picture

Ви коментуєте, використовуючи свій обліковий запис Twitter. Log Out / Змінити )

Facebook photo

Ви коментуєте, використовуючи свій обліковий запис Facebook. Log Out / Змінити )

Google+ photo

Ви коментуєте, використовуючи свій обліковий запис Google+. Log Out / Змінити )

З’єднання з %s

%d блогерам подобається це: