ਕਿਵੇਂ Alphabet ਨੇ Search, ads ਨਿਲਾਮੀਆਂ ਅਤੇ AI infrastructure ਨੂੰ ਜੋੜ ਕੇ ਲੋਕ ਜਾਣਕਾਰੀ ਕਿਵੇਂ ਲੱਭਦੇ ਹਨ ਅਤੇ ਵੈੱਬ ਨੂੰ ਕਿਵੇਂ ਭੁਗਤਾਨ ਮਿਲਦਾ ਹੈ, ਅਤੇ ਇਹ ਅੱਜ ਕੀ ਮਤਲਬ ਹੈ।

ਆਧੁਨਿਕ ਵੈੱਬ ਦੋ ਲਗਾਤਾਰ ਜ਼ਰੂਰਤਾਂ 'ਤੇ ਚੱਲਦੀ ਹੈ: ਖੋਜ ਅਤੇ ਮੋਨੇਟਾਈਜ਼ੇਸ਼ਨ। ਖੋਜ ਉਹ ਕ੍ਰਿਆ ਹੈ ਜਿਸ ਵਿੱਚ ਤੁਸੀਂ ਜੋ ਲੱਭ ਰਹੇ ਹੋ—ਇੱਕ ਜਵਾਬ, ਇੱਕ ਉਤਪਾਦ, ਇੱਕ ਸਥਾਨਕ ਸੇਵਾ, ਇੱਕ ਵੀਡੀਓ, ਇੱਕ ਪਰਿਭਾਸ਼ਾ—ਉਹ ਮਿਲਦਾ ਹੈ। ਮੋਨੇਟਾਈਜ਼ੇਸ਼ਨ ਹੈ ਕਿ ਇਹ ਸਭ ਕਿਵੇਂ ਭੁਗਤਾਨ ਹੁੰਦਾ ਹੈ—ਵੈੱਬਸਾਈਟਾਂ, ਐਪਾਂ, ਰਚਨਾਕਾਰਾਂ ਅਤੇ ਇੰਫ੍ਰਾਸਟ੍ਰੱਕਚਰ ਨੂੰ ਫੰਡ ਮਿਲਦਾ ਹੈ।
Alphabet (Google ਰਾਹੀਂ) "ਮੱਧ-ਪਰਤ" ਇਸ ਲਈ ਬਣਿਆ ਕਿਉਂਕਿ ਇਹ ਤਿੰਨ ਗਰੁੱਪਾਂ ਦੇ ਵਿਚਕਾਰ ਵਾਰਸਾ ਬਣਕੇ ਖੜਾ ਹੈ ਜੋ ਇਕ ਦੂਜੇ 'ਤੇ ਨਿਰਭਰ ਹਨ ਪਰ ਅਕਸਰ ਚੰਗੀ ਤਰ੍ਹਾਂ ਸਹਿ-ਸੰਚਾਰ ਨਹੀਂ ਕਰਦੇ: ਯੂਜ਼ਰ ਜੋ ਤੇਜ਼ੀ ਨਾਲ ਪ੍ਰਸੰਗਿਕ ਨਤੀਜੇ ਚਾਹੁੰਦੇ ਹਨ, ਪਬਲਿਸ਼ਰ ਜਿਨ੍ਹਾਂ ਨੂੰ ਸਮਗਰੀ ਬਣਾਈ ਰੱਖਣ ਲਈ ਟ੍ਰੈਫਿਕ ਅਤੇ ਰੈਵਨਿਊ ਚਾਹੀਦਾ ਹੈ, ਅਤੇ ਵਿਗਿਆਪਨਦਾਤਾ ਜੋ ਲੋਕਾਂ ਨੂੰ ਮਾਪੇ ਜਾਣ ਯੋਗ ਤਰੀਕੇ ਨਾਲ ਪਹੁੰਚਣਾ ਚਾਹੁੰਦੇ ਹਨ।
Google ਜ਼ਿਆਦਾਤਰ ਸਮੱਗਰੀ ਨਹੀਂ ਬਣਾਉਂਦਾ ਜੋ ਤੁਸੀਂ ਪੜ੍ਹਦੇ ਜਾਂ ਖਰੀਦਦੇ ਹੋ। ਇਹ ਧਿਆਨ ਨੂੰ ਰਾਹ ਦਿਖਾਉਂਦਾ ਹੈ: ਇਹ ਲੋਕਾਂ ਨੂੰ ਮਦਦ ਕਰਦਾ ਹੈ ਕਿ ਉਹ ਕਿਹੜੇ ਪੰਨੇ ਤੇ ਜਾਣ, ਕਿਹੜਾ ਐਪ ਖੋਲ੍ਹਣ ਜਾਂ ਕਿਹੜਾ ਵਪਾਰ ਕਾਲ ਕਰਨ। ਪਬਲਿਸ਼ਰਾਂ ਲਈ, ਇਹ ਰਾਹਦਾਰੀ ਇੱਕ ਦਰਸ਼ਕਤਾ ਅਤੇ ਅਗਿਆਤਤਾ ਵਿੱਚ ਫਰਕ ਕਰ ਸਕਦੀ ਹੈ। ਵਿਗਿਆਪਨਦਾਤਾ ਲਈ, ਇਹ "ਕੋਈ ਕਿਸੇ ਚੀਜ਼ ਨੂੰ ਲੱਭ ਰਿਹਾ ਹੈ" ਨੂੰ ਵੈਬ ਨੂੰ ਮਾਲੀ ਤੌਰ 'ਤੇ ਚਲਾਉਣ ਦਾ ਕਾਰਗਰ ਤਰੀਕਾ ਬਣਾਉਂਦਾ ਹੈ।
ਇਹ ਲੇਖ ਤਿੰਨ ਜੁੜੇ ਸਿਸਟਮਾਂ 'ਤੇ ਧਿਆਨ ਕੇਂਦ੍ਰਿਤ ਕਰਦਾ ਹੈ:
ਅਸੀਂ ਉਤਪਾਦਾਂ, ਪ੍ਰੇਰਣਾਵਾਂ, ਅਤੇ ਦੂਜੇ-ਕ੍ਰਿਆ ਪ੍ਰਭਾਵਾਂ ਨੂੰ ਵੇਖਾਂਗੇ—ਕਿਉਂ ਸਿਸਟਮ ਕੰਮ ਕਰਦਾ ਹੈ, ਕਿੱਥੇ ਖਿੱਚ ਆਉਂਦਾ ਹੈ, ਅਤੇ ਇਹ ਕੀ ਯੋਗ ਬਣਾਂਦਾ ਹੈ। ਮਕਸਦ ਕੋਈ ਹਾਈਪ ਜਾਂ ਸਾਜ਼ਿਸ਼ ਨਹੀਂ; ਇਹ ਇੱਕ ਸਾਫ਼ ਨਕਸ਼ਾ ਹੈ ਕਿ ਕਿਵੇਂ Search, Ads, ਅਤੇ compute ਨੇ Alphabet ਨੂੰ ਆਨਲਾਈਨ ਇਰਾਦਿਆਂ ਲਈ ਇੱਕ ਕੇਂਦਰੀ ਕਲੀਅਰਿੰਗਹਾਉਸ ਬਣਾ ਦਿੱਤਾ।
ਸ਼ੁਰੂਆਤੀ ਵੈੱਬ ਇੱਕ ਵੱਡੀ ਲਾਇਬ੍ਰੇਰੀ ਸੀ ਜਿਸ ਦੀਆਂ ਲੇਬਲਾਂ ਗੁੰਮ ਹੋਈਆਂ ਸਨ। ਪੰਨੇ ਆਉਂਦੇ ਅਤੇ ਗਾਇਬ ਹੋ ਜਾਂਦੇ, ਕੋਈ ਵੀ ਕੁਝ ਵੀ ਪ੍ਰਕਾਸ਼ਿਤ ਕਰ ਸਕਦਾ ਸੀ, ਅਤੇ ਕੋਈ ਕੇਂਦਰੀ ਕੈਟਾਲੌਗ ਨਹੀਂ ਸੀ। ਭਰੋਸੇਮੰਦ ਜਵਾਬ ਲੱਭਣਾ ਨਾ ਸਿਰਫ਼ ਅਸੁਵਿਧਾਜਨਕ ਸੀ—ਇੱਕ ਅਨਿਸ਼ਚਿਤਤਾ ਸੀ।
ਤਿਨ ਮੁਢਲੇ ਸਮੱਸਿਆਵਾਂ ਤੇਜ਼ੀ ਨਾਲ ਇੱਕਠੀਆਂ ਹੋ ਗਈਆਂ:
Google ਦੀ ਖੋਜ ਇਹ ਸੀ ਕਿ ਵੈੱਬ ਨੂੰ ਸਿਰਫ਼ ਟੈਕਸਟ ਦੀ ਢੇਰ ਵਜੋਂ ਨਹੀਂ, ਬਲਕਿ ਸਿਗਨਲ ਸਿਸਟਮ ਵਜੋਂ ਵੇਖਣਾ।
ਸਧਾਰਣ ਤਰੀਕੇ ਨਾਲ ਸੋਚੋ: ਇੱਕ ਲਿੰਕ ਇੱਕ ਵੋਟ ਹੈ, ਅਤੇ ਵਿਸ਼ਵਾਸਯੋਗ ਸਾਈਟਾਂ ਤੋਂ ਆਉਣ ਵਾਲੀਆਂ ਵੋਟਾਂ ਦਾ ਵਜ਼ਨ ਜ਼ਿਆਦਾ ਹੁੰਦਾ ਹੈ। ਜੇ ਕਈ ਮਾਨਯੋਗ ਸਾਈਟਾਂ ਕਿਸੇ ਪੰਨੇ ਨੂੰ ਪੁਆਇੰਟ ਕਰਦੀਆਂ ਹਨ, ਤਾਂ ਉਹ ਪੰਨਾ ਅਸਰਦਾਰ ਹੋਣ ਦੀ ਸੰਭਾਵਨਾ ਹੈ।
ਇਸ ਨਾਲ ਗੁਣਵੱਤਾ ਆਪਣੀ ਥਾਂ 'ਤੇ ਖੜੀ ਨਹੀਂ ਹੋ ਗਈ—spam ਕਰਨ ਵਾਲੇ ਵੀ ਵੋਟ ਨਕਲ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ—ਪਰ ਇਹ ਮਿਆਰ ਨੂੰ ਚੁੱਕ ਕੇ ਉੱਠਾਉਂਦਾ ਹੈ। ਖੱਬੀਆਂ ਇਹ ਵੀ ਬਦਲੀ: ਵਾਸਤਵਿਕ ਲਿੰਕਾਂ ਕਮਾਉਣਾ ਇਕ ਕਾਰਗਰ ਰਣਨੀਤੀ ਬਣ ਗਿਆ।
ਪ੍ਰਸੰਗਿਕਤਾ ਮਹੱਤਵਪੂਰਨ ਸੀ, ਪਰ ਅਹਿਸਾਸ ਵੀ ਹੈ। Google ਦਾ ਸਾਫ਼ ਹੋਮਪੇਜ, ਤੇਜ਼ ਨਤੀਜੇ, ਅਤੇ ਲਗਾਤਾਰ ਅਨੁਭਵ friction ਨੂੰ ਲਗਭਗ ਸ਼ੂਨਯ ਕਰ ਦਿੰਦਾ ਸੀ। ਜਦੋਂ "ਸਰਬੋਤਮ ਜਵਾਬ ਤੇਜ਼ੀ ਨਾਲ" ਕੁਝ ਵਾਰ ਕੰਮ ਕਰਦਾ, ਇਹ ਮਾਸਲ ਮੇਮਰੀ ਬਣ ਜਾਂਦਾ।
ਉਹ ਰੋਜ਼ਾਨਾ ਦੀ ਆਦਤ—ਸਵਾਲ ਲਿਖੋ, ਸੂਚੀ ਪਾਉ, ਕਲਿੱਕ ਕਰੋ—ਨੇ ਖੁੱਲੇ ਵੈੱਬ ਨੂੰ ਨੈਵੀਗੇਬਲ ਬਣਾ ਦਿੱਤਾ। Search ਇੱਕ ਖਾਸ ਜ਼ਰੀਏ ਹੋਣਾ ਛੱਡ ਕੇ ਸਿੱਧਾ ਸ਼ੁਰੂਆਤੀ ਨੁਕਤਾ ਬਣ ਗਿਆ—ਸਿੱਖਣ, ਖਰੀਦਦਾਰੀ, ਸਮੱਸਿਆ ਹੱਲ ਕਰਨ ਅਤੇ ਯੋਜਨਾ ਬਣਾਉਣ ਲਈ।
Search ਕੋਲ ਇਕ ਵਿਲੱਖਣ ਕੀਮਤੀ ਰੌ ਮਟਰੀਅਲ ਹੁੰਦਾ ਹੈ: ਇਰਾਦਾ। ਇੱਕ ਕਵੈਰੀ ਅਕਸਰ ਸਪਸ਼ਟ-ਭਾਸ਼ਾ ਵਿੱਚ ਦਰਸਾਉਂਦੀ ਹੈ ਕਿ ਕੋਈ ਵਿਅਕਤੀ ਹੁਣੀ ਕੀ ਚਾਹੁੰਦਾ ਹੈ—"best noise-canceling headphones", "symptoms of strep throat", "how to file an LLC", "flights to Tokyo"। ਇਸ ਤੁਰੰਤਤਾ ਨੇ ਕਵੈਰੀਆਂ ਨੂੰ ਇੰਟਰਨੈੱਟ ਦੇ ਬਾਕੀ ਸੰਕੇਤਾਂ ਤੋਂ ਵੱਖਰਾ ਬਣਾ ਦਿੱਤਾ।
Social feed ਅਤੇ display ads ਆਮ ਤੌਰ 'ਤੇ ਪੈਸਿਵ ਖਪਤ ਨਾਲ ਸ਼ੁਰੂ ਹੁੰਦੇ ਹਨ: ਤੁਸੀਂ scroll ਕਰਦੇ ਹੋ, ਤੁਸੀਂ browse ਕਰਦੇ ਹੋ, ਤੁਸੀਂ ਜੋ ਅਗਲਾ ਮਿਲਦਾ ਵੇਖਦੇ ਹੋ। Search ਇਸ ਤਰਤੀਬ ਨੂੰ ਉਲੱਟ ਦਿੰਦਾ ਹੈ। ਯੂਜ਼ਰ ਪਹਿਲਾਂ ਹੀ ਇੱਕ ਲਕਸ਼ ਦਰਸਾਉਂਦਾ ਹੈ, ਅਤੇ ਸਿਸਟਮ ਦਾ ਕੰਮ ਉਸ ਦੇ ਨਾਲ ਮੇਲ ਕਰਨਾ ਹੈ।
ਇਹ ਫਰਕ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਹੈ ਕਿਉਂਕਿ:
ਜਦੋਂ ਨਤੀਜੇ ਭਰੋਸੇਯੋਗ ਮਹਿਸੂਸ ਹੁੰਦੇ ਹਨ, ਲੋਕ ਹੋਰ ਕੈਟੇਗਰੀਜ਼ ਲਈ ਖੋਜ 'ਤੇ ਵਾਪਸ ਆਉਂਦੇ ਹਨ: ਛੋਟੇ-ਮੁੱਦੇ, ਮਹੱਤਵਪੂਰਨ ਖਰੀਦ, ਸਥਾਨਕ ਸੇਵਾਵਾਂ, ਤਕਨੀਕੀ ਸਮੱਸਿਆਵਾਂ। ਹਰ ਸਫਲ ਖੋਜ ਯੂਜ਼ਰ ਨੂੰ ਦੱਸਦੀ ਹੈ ਕਿ ਪੁੱਛਣਾ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਹੈ—ਅਤੇ ਸਿਸਟਮ ਨੂੰ ਦੱਸਦੀ ਹੈ ਕਿ "ਚੰਗਾ" ਕੀ ਹੈ।
ਇਹ ਭਰੋਸਾ ਨਾਜ਼ੁਕ ਹੈ। ਜੇ ਨਤੀਜੇ ਭਰੇ-ਪੂਰਕ, spammy ਜਾਂ ਭੁੱਲੇ ਹੋਣਗੇ, ਯੂਜ਼ਰ ਤੁਰੰਤ ਅਨੁਕੂਲਤਾ ਕਰ ਲੈਂਦੇ ਹਨ: ਉਹ queries 'ਚ "reddit" ਜੋੜਦੇ ਹਨ, ਇੰਜਣ ਬਦਲਦੇ ਹਨ, ਜਾਂ ਐਪਾਂ 'ਤੇ ਵਿਸ਼ਵਾਸ ਕਰ ਲੈਂਦੇ ਹਨ। ਪ੍ਰਸੰਗਿਕਤਾ ਉੱਚੀ ਰੱਖਣਾ ਇੱਕ ਦੇਸੀਜ਼ਨ ਹੈ—ਇਹ ਆਦਤ ਦੀ ਰੱਖਿਆ ਕਰਦਾ ਹੈ।
Search ਦੁਹਰਾਈ ਰਾਹੀਂ ਸੁਧਰਦਾ ਹੈ:
Better results → more searches → more signals about satisfaction → better results.
ਇਹ ਸਿਗਨਲਾਂ ਵਿੱਚ clicks, ਦੁਬਾਰਾ queries ਬਦਲਣਾ, ਵਾਪਸ ਆਉਣ ਦਾ ਸਮਾਂ, ਅਤੇ ਸਮਾਨ ਖੋਜਾਂ 'ਤੇ ਰੁਝਾਨ ਸ਼ਾਮِل ਹਨ। ਸਮੇਂ ਦੇ ਨਾਲ, ਸਿਸਟਮ ਲਗਭਗ ਸਿੱਖਦਾ ਹੈ ਕਿ ਲੋਕਾਂ ਦਾ ਅਰਥ ਕੀ ਸੀ—ਸਿਰਫ਼ ਜੋ ਉਹ ਲਿਖਦੇ ਨਹੀਂ—ਇਸ ਤਰ੍ਹਾਂ ਮਨੋਰਥ ਇੱਕ ਬਣਦੀ ਹੋਈ ਫਾਇਦੇ ਵਾਲੀ ਲਾਭਕਾਰੀ ਸ਼ਕਤੀ ਬਣ ਜਾਂਦੀ ਹੈ ਜੋ ਖੋਜ ਅਤੇ ਮੋਨੇਟਾਈਜ਼ੇਸ਼ਨ ਦੋਹਾਂ ਨੂੰ ਸਮਰਥਨ ਦਿੰਦੀ ਹੈ।
Search ads ਇੱਕ ਬਿਲਬੋਰਡ ਖਰੀਦਣ ਵਾਂਗ ਨਹੀਂ ਹਨ—ਇਹ ਚਿੰਨ੍ਹ ਦੇ ਇਕ ਪਲ ਲਈ ਬੋਲੀ ਲਾਉਣ ਵਾਂਗ ਹਨ। ਜਦੋਂ ਕੋਈ ਕਵੈਰੀ ਟਾਈਪ ਕਰਦਾ ਹੈ, ਕਈ ਵਿਗਿਆਪਨਦਾਤਾ ਉਸ ਇਰਾਦੇ ਲਈ ਦਿਖਾਈ ਦੇ ਸਕਦੇ ਹਨ ("running shoes", "accounting software", "emergency plumber"). Google ਇੱਕ ਤੇਜ਼ ਨਿਲਾਮੀ ਚਲਾਉਂਦਾ ਹੈ ਜੋ ਫੈਸਲਾ ਕਰਦੀ ਹੈ ਕਿ ਕਿਹੜੇ ads ਦਿਖਾਏ ਜਾਣਗੇ, ਕਿਹੜਾ ਕਿੱਥੇ ਰਹੇਗਾ, ਅਤੇ ਕਿੰਨਾ ਖਰਚਾ ਆ ਸਕਦਾ ਹੈ।
ਹਰ ਵਿਗਿਆਪਨਦਾਤਾ ਇੱਕ ਅਧਿਕਤਮ ਬਿਡ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ: ਉਹ ਸਭ ਤੋਂ ਵੱਧ ਜੋ ਉਹ ਕਿਸੇ ਕਲਿੱਕ ਲਈ ਭੁਗਤਾਨ ਕਰਨ ਨੂੰ ਤਿਆਰ ਹੈ। ਪਰ ਸਭ ਤੋਂ ਵੱਡੀ ਬਿਡ ਸਵੈਚਾਲਿਤ ਤੌਰ 'ਤੇ ਨਹੀਂ ਜਿੱਤਦੀ।
Google quality ਅਤੇ relevance ਵੀ ਧਿਆਨ ਵਿੱਚ ਰੱਖਦਾ ਹੈ—ਜੋ ਅੰਦਾਜ਼ਾ ਲਗਾਦਾ ਹੈ ਕਿ ਕੋਈ ad ਖੋਜ ਕਰਨ ਵਾਲੇ ਦੀ ਸਹਾਇਤਾ ਕਰਨਗਾ ਜਾਂ ਨਹੀਂ। ਜੇ ਤੁਹਾਡਾ ad ਅਤੇ landing page ਕਵੈਰੀ ਨਾਲ ਗਹਿਰਾਈ ਨਾਲ ਮਿਲਦਾ ਹੈ ਅਤੇ ਲੋਕ ਕਲਿੱਕ ਕਰਕੇ ਆਪਣੀ ਲੋੜ ਪੂਰੀ ਕਰ ਲੈਂਦੇ ਹਨ, ਤਾਂ ਤੁਸੀਂ ਅਕਸਰ ਬੁਰੇ ਮਿਲਾਨ ਵਾਲੇ ਉੱਚ ਬਿਡਰ ਨੂੰ ਹਰਾਉਂ ਸਕਦੇ ਹੋ। ਇਹ ਪ੍ਰਣਾਲੀ ਉਪਯੋਗਿਤਾ ਵੱਲ ਧੱਕਦੀ ਹੈ: ਵਿਗਿਆਪਨਦਾਤਾ ਸਿਰਫ਼ ਪੈਸਾ ਖਰਚ ਕੇ ਮਾੜੇ ਨਤੀਜੇ ਨੂੰ ਖਰੀਦ ਨਹੀਂ ਸਕਦੇ।
ਰਵਾਇਤੀ ਵਿਗਿਆਪਨ ਜਿੱਥੇ ਤੁਸੀਂ ਮੁੱਖ ਤੌਰ 'ਤੇ ਇੰਪ੍ਰੈਸ਼ਨ ਲਈ ਭੁਗਤਾਨ ਕਰਦੇ ਸੀ, search ads ਨੇ pay-per-click (PPC) ਪ੍ਰਚਲਿਤ ਕੀਤਾ: ਤੁਸੀਂ ਉਸ ਵੇਲੇ ਭੁਗਤਾਨ ਕਰਦੇ ਹੋ ਜਦੋਂ ਕਿਸੇ ਨੇ ਕਲਿੱਕ ਕੀਤਾ।
ਇਹ ਢਾਂਚਾ ਖਰਚਾਂ ਨੂੰ ਨਤੀਜਿਆਂ ਨਾਲ ਜੋੜਦਾ ਹੈ। ਇੱਕ ਛੋਟਾ ਧੰਦਾ ਨਿਮਨ ਬਜਟ ਨਾਲ ਸ਼ੁਰੂ ਕਰ ਸਕਦਾ, ਕੁਝ ਕੁੰਜੀਆਂ ਟੈਸਟ ਕਰ ਸਕਦਾ, ਅਤੇ ਉਹ ਸ਼ਬਦ ਰੋਕ ਸਕਦਾ ਜੋ ਗਾਹਕ ਨਹੀਂ ਲਿਆਉਂਦੇ। ਉੱਚ-ਇਰਾਦੇ ਵਾਲੀਆਂ ਖੋਜਾਂ ਜੇਹੜੀਆਂ ਉਪਭੋਗਤਾ ਨੂੰ ਕਾਰਵਾਈ ਦੇ ਨੇੜੇ ਲਿਆਉਂਦੀਆਂ ਹਨ, ਉਹ ਕੁਦਰਤੀ ਤੌਰ 'ਤੇ ਜ਼ਿਆਦਾ ਕੀਮਤੀ ਹੋ ਜਾਂਦੀਆਂ ਹਨ।
ਅਸਲ ਏਕਸਿਲਰੇਟਰ ਮਾਪ-ਤਰੀਕਿਆਂ ਦਾ ਸੀ। ਕਲਿੱਕ ਤੋਂ ਬਾਦ ਜੋ ਹੋਇਆ—ਕਾਲਾਂ, ਫਾਰਮ ਭਰਨਾ, ਖਰੀਦਾਂ—ਇਸ ਨੂੰ ਟਰੈਕ ਕਰਕੇ ਵਿਗਿਆਪਨਦਾਤਾ ਇਹ ਅੰਦਾਜ਼ਾ ਲਗਾ ਸਕਦੇ ਹਨ ਕਿ "ਇਹ ਲਾਭਦਾਇਕ ਰਿਹਾ?"
ਜਿਵੇਂ conversion tracking ਸੁਧਰਿਆ, ਮਾਰਕੀਟਿੰਗ ਬਜਟ search ਵੱਲ ਵੱਧ ਕੇ ਆਇਆ ਕਿਉਂਕਿ ਇਹ ਪੜ੍ਹਨਯੋਗ ਸੀ: ਤੁਸੀਂ ਵੇਖ ਸਕਦੇ ਸਨ ਕਿ ਕਿਹੜੀਆਂ ਕਵੈਰੀਆਂ ਅਤੇ ads ਨਤੀਜੇ ਦਿੰਦੀਆਂ ਹਨ, ਫਿਰ ਮੁੜ ਨਿਵੇਸ਼ ਕਰ ਸਕਦੇ। ਇਹ ਫੀਡਬੈਕ ਲੂਪ relevance ਨੂੰ ਇਨਾਮ ਦਿੰਦਾ, ਟਾਰਗਟਿੰਗ ਸੁਧਾਰਦਾ, ਅਤੇ मुफ्त ਸੇਵਾਵਾਂ ਨੂੰ ਫੰਡ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਦਾ।
AdSense ਨੇ Google ਦੀ advertiser demand ਨੂੰ ਹਰ ਵੈੱਬਸਾਈਟ ਲਈ ਉਪਲਬਧ ਕਰ ਦਿੱਤਾ। ਸਿੱਧੇ sponsorship ਜਾਂ sales team ਬਣਾਉਣ ਦੀ ਜ਼ਰੂਰਤ ਤੋਂ ਬਿਨਾਂ, ਇੱਕ ਛੋਟੀ ਬਲੌਗ, ਨਿਸ਼ ਫੋਰਮ, ਜਾਂ ਸਥਾਨਕ ਨਿਊਜ਼ ਸਾਈਟ ਕੋਡ ਦਾ ਟੁਕੜਾ ਪੇਸਟ ਕਰਕੇ ਉਹੀ ads ਦਿਖਾ ਸਕਦੀ ਸੀ ਜੋ Search 'ਤੇ ਆ ਰਹੇ ਸਨ।
ਮੂਲ ਰੂਪ ਵਿੱਚ, AdSense ਤਿੰਨ ਚੀਜ਼ਾਂ ਨੂੰ ਜੋੜਦਾ ਹੈ: publisher pages (ਸਪਲਾਈ), advertiser budgets (ਡਿਮਾਂਡ), ਅਤੇ Google ਦੀ targeting ਅਤੇ auction ਪ੍ਰਣਾਲੀ (ਮੈਚਿੰਗ + ਪ੍ਰਾਈਸਿੰਗ)। ਇਹ ਮਿਲਾਪ publisher ਤੋਂ ਕਿਸੇ ਵਿਕਰੀ ਦੀ ਲੋੜ ਨਹੀਂ ਰੱਖਦਾ—ਸਿਰਫ਼ ਉਹ ਪੰਨੇ ਬਣਾਉਣੇ ਪੈਂਦੇ ਸੀ ਜੋ ਦਰਸ਼ਕਾਂ ਨੂੰ ਖਿੱਚਦੇ ਅਤੇ ਸਿਸਟਮ ਨੂੰ ਸਾਡੇ ਲਈ ਢੰਗ ਦੀ ਸੰਦਰਭ ਜਾਣਕਾਰੀ ਦਿੰਦੇ।
ਨਤੀਜਾ ਇੱਕ ਸਾਂਝਾ ਪ੍ਰੇਰਣਾ ਲੂਪ ਸੀ:
ਇਸ ਲੂਪ ਨੇ open web ਦੀ long tail ਨੂੰ ਵਧਾਇਆ: ਮਿਲੀਅਨ ਸਾਈਟਾਂ ਜੋ ਥੋੜ੍ਹੇ ਦਰਸ਼ਕਾਂ ਨਾਲ ਵੀ ਆਰਥਿਕ ਰੂਪ ਵਿੱਚ ਟਿਕ ਸਕਦੀਆਂ ਸਨ।
ਸਕੇਲ ਤੇ ਮੋਨੇਟਾਈਜ਼ੇਸ਼ਨ ਨੇ ਵਰਤਾਰੀਆਂ ਨੂੰ ਵੀ ਰੂਪ ਦਿੱਤਾ। ਜਦੋਂ ਰੇਵਨਿਊ ਕਲਿੱਕ ਅਤੇ ਇੰਪ੍ਰੈਸ਼ਨ ਨਾਲ ਜੁੜਿਆ ਹੁੰਦਾ ਹੈ, ਤਾੰ publishers ਨੂੰ ਵੋਲਿਊਮ ਲਈ ਦਬਾਅ ਮਹਿਸੂਸ ਹੁੰਦਾ—ਕਈ ਵਾਰੀ ਗੁਣਵੱਤਾ ਦੀ ਕੁਝ ਕਮੀ ਹੋ ਜਾਂਦੀ। ਇਸ ਨੇ SEO-ਪਹਿਲਾ ਸਮੱਗਰੀ, clickbait headlines, ਭਾਰੀ ad ਲੇਆਊਟ ਅਤੇ ਗੁੰਮਰਾਹ ਪੇਜ ਅਨੁਭਵ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕੀਤਾ। Google ਨੇ ਇਨ੍ਹਾਂ ਦੇ ਖਿਲਾਫ ਨੀਤੀਆਂ ਅਤੇ page-quality ਸਿਗਨਲ ਲਗਾ ਕੇ ਕੁਝ ਕਦਮ ਚੁੱਕੇ, ਪਰ ਮੂਲ ਪ੍ਰੇਰਣਾਵਾਂ ਪੂਰੀ ਤਰ੍ਹਾਂ ਵੱਢੀਆਂ ਨਹੀਂ ਗਈਆਂ।
ਸਮੇਂ ਦੇ ਨਾਲ, ਕਈ publishers Google-ਚਲਿਤ referral traffic ਅਤੇ RPM (revenue per thousand pageviews) 'ਤੇ ਨਿਰਭਰ ਹੋ ਗਏ। ਇਹ ਨਿਰਭਰਤਾ ਕਾਰੋਬਾਰੀ ਯੋਜਨਾ ਨੂੰ ਜ਼ਰਾਬੀਲਾ ਬਣਾਉਂਦੀ ਹੈ: ਇੱਕ ranking ਬਦਲਾਅ, ਯੂਜ਼ਰ ਵਿਹਾਰ ਵਿੱਚ ਬਦਲਾਅ, ਜਾਂ ਨੀਤੀ ਅੱਪਡੇਟ ਇੱਕ ਰੋਜ਼ੇ ਵਿੱਚ ਕਮਾਈ ਨੂੰ ਬਦਲ ਸਕਦੇ ਹਨ। AdSense ਨੇ ਕੇਵਲ publishers ਨੂੰ ਮੋਨੇਟਾਈਜ਼ ਨਹੀਂ ਕੀਤਾ—ਇਸ ਨੇ ਉਨ੍ਹਾਂ ਦੀ ਕਿਸਮਤ ਉਸੇ ਖੋਜ ਇੰਜਣ ਨਾਲ ਜੋੜ ਦਿੱਤੀ ਜੋ ਉਨ੍ਹਾਂ ਨੂੰ ਦਰਸ਼ਕ ਭੇਜਦਾ ਸੀ।
Google Search ਕੋਈ ਸਧਾਰਣ "ਵੇਬਸਾਈਟ" ਨਹੀਂ—ਇਹ ਇੱਕ ਹਮੇਸ਼ਾ-ਚਾਲੂ ਉਦਯੋਗਿਕ ਪ੍ਰਣਾਲੀ ਹੈ। ਵਾਅਦਾ ਸਧਾਰਣ ਹੈ—ਕੁਝ ਵੀ ਟਾਈਪ ਕਰੋ, ਤੁਰੰਤ ਉਪਯੁਕਤ ਨਤੀਜੇ ਪ੍ਰਾਪਤ ਕਰੋ—ਪਰ ਉਹ ਅਨੁਭਵ ਦਿੱਤਾ ਜਾਣ ਲਈ ਖੁੱਲੇ ਵੈੱਬ ਨੂੰ ਲਗਾਤਾਰ ਰੀਫ੍ਰੈਸ਼ ਕੀਤੇ ਜਾਣ ਵਾਲੇ, ਪੁੱਛਣ ਯੋਗ ਸੰਪਤੀ ਵਿੱਚ ਬਦਲਣਾ ਪੈਂਦਾ ਹੈ।
Crawling ਇੱਕ ਬੁਨਿਆਦੀ ਵਿਚਾਰ ਵਜੋਂ ਸ਼ੁਰੂ ਹੁੰਦਾ ਹੈ: ਪੰਨੇ ਲਿਆਓ ਅਤੇ links ਦੀ ਪਾਲਣਾ ਕਰੋ। Google ਦੇ ਅਕਾਰ 'ਤੇ ਇਹ scheduling, prioritization, ਅਤੇ quality control ਨਾਲ ਇਕ ਪ੍ਰੋਡਕਸ਼ਨ ਲਾਈਨ ਬਣ ਜਾਂਦਾ ਹੈ। ਪ੍ਰਣਾਲੀ ਨੂੰ ਫੈਸਲਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ ਕਿ ਕੀ ਫੈਚ ਕਰਨਾ ਹੈ, ਕਿੰਨੀ ਵਾਰੀ, ਅਤੇ duplicates, spam ਜਾਂ ਹਰ ਮਿੰਟ ਬਦਲਣ ਵਾਲੀਆਂ pages 'ਤੇ ਸਮਾਂ ਬਰਬਾਦ ਕਰਨ ਤੋਂ ਕਿਵੇਂ ਬਚਣਾ ਹੈ।
Indexing ਉਹ ਜਗ੍ਹਾ ਹੈ ਜਿੱਥੇ ਰੂਪਾਂਤਰ ਹੁੰਦਾ ਹੈ। "ਪੰਨਿਆਂ ਦੀ ਢੇਰ" ਦੇ ਬਜਾਏ, Google ਸੰਰਚਿਤ ਪ੍ਰਤੀਨਿਧਿਤਵ ਬਣਾਉਂਦਾ ਹੈ: terms, entities, links, freshness signals, ਭਾਸ਼ਾ ਫੀਚਰ ਅਤੇ ਹੋਰ ਬਹੁਤ ਸਾਰੇ ਗੁਣ ਜੋ ਤੇਜ਼ੀ ਨਾਲ ਰੀਟਰੀਵ ਕੀਤੇ ਜਾ ਸਕਦੇ ਹਨ। ਇਹ ਇੰਡੈਕਸ ਲਗਾਤਾਰ ਅਪਡੇਟ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਬਿਨਾਂ query ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਟੋੜੇ—ਇਸ ਲਈ incremental updates, storage layout, ਅਤੇ fault tolerance 'ਤੇ ਧਿਆਨ ਲੱਗਦਾ ਹੈ।
Search ਵਾਲੀ ਖਪਤ ਜੇ ਦਿਨਾਨੁਸਾਰ ਬਿਲੀਅਨ-ਗਿਣਤੀ queries 'ਚ ਹੈ, ਤਾਂ infrastructure ਫੈਸਲੇ ਉਤਪਾਦਕ ਫੈਸਲਿਆਂ ਬਣ ਜਾਂਦੇ ਹਨ۔ ਡੇਟਾ ਸੈਂਟਰ, ਨੈਟਵਰਕਿੰਗ, ਅਤੇ ਸਟੋਰੇਜ ਨਿਰਧਾਰਤ ਕਰਦੇ ਹਨ ਕਿ ਕੀ ਸੰਭਵ ਹੈ:
Latency ਇੱਕ ਮੁਕਾਬਲਾਤੀ ਫਾਇਦਾ ਹੈ ਕਿਉਂਕਿ ਇਹ ਵਿਹਾਰ ਨੂੰ ਰੂਪ ਦੇਂਦਾ ਹੈ। ਜੇ ਨਤੀਜੇ ਤੇਜ਼ ਹਨ, ਲੋਕ ਜ਼ਿਆਦਾ search ਕਰਦੇ, ਜ਼ਿਆਦਾ ਸੁਧਾਰ ਕਰਦੇ, ਅਤੇ ਟੂਲ 'ਤੇ ਵੱਧ ਭਰੋਸਾ ਕਰਦੇ ਹਨ। ਭਰੋਸੇਯੋਗਤਾ ਵੀ ਇਕੋ ਤਰ੍ਹਾਂ ਮਹੱਤਵਪੂਰਨ ਹੈ: outage ਕੇਵਲ ਡਾਊਨਟਾਈਮ ਨਹੀਂ; ਇਹ ਇੱਕ ਟੁੱਟੀ ਹੋਈ ਆਦਤ ਹੈ।
ਬਹੁਤ ਵੱਡੇ ਪੈਮਾਨੇ 'ਤੇ ਚਲਾਉਣ ਨਾਲ per-query ਲਾਗਤ optimized hardware utilization, custom systems, ਅਤੇ smarter scheduling ਰਾਹੀਂ ਘਟ ਸਕਦੀ ਹੈ। ਘੱਟ ਇਕਾਈ ਲਾਗਤ ਫਿਰ ਤੇਜ਼ iteration ਨੂੰ ਫੰਡ ਕਰਦੀ ਹੈ: ਹੋਰ ਪ੍ਰਯੋਗ, ਹੋਰ model updates, ਅਤੇ ਘਣਾਰ ਵਾਰ index refreshes। ਸਮੇਂ ਨਾਲ ਇਹ ਸੰਯੋਗ "ਗਤੀ" ਅਤੇ "ਤਾਜ਼ਗੀ" ਨੂੰ ਛੋਟੇ ਮੁਕਾਬਲਾ ਕਰਨ ਵਾਲਿਆਂ ਲਈ ਮੁਸ਼ਕਲ ਬਣਾਉਂਦਾ ਹੈ।
Alphabet ਸਿਰਫ਼ ਇੱਕ ਬਹੁਤ ਹੀ ਵਧੀਆ search engine ਰੱਖ ਕੇ ਜਿੱਤਿਆ ਨਹੀਂ। ਇਸ ਨੇ ਵੈੱਬ ਦੇ "ਫਰੰਟ ਡੋਰ" ਨੂੰ ਵੀ ਸੁਰੱਖਿਅਤ ਕੀਤਾ: ਓਥੇ ਜਿੱਥੋਂ ਲੋਕ ਬ੍ਰਾਉਜ਼ਿੰਗ ਸ਼ੁਰੂ ਕਰਦੇ ਹਨ ਅਤੇ ਜਿੱਥੇ ਡਿਫਾਲਟ ਚੋਣਾਂ धीरे-धीਰੇ ਅਗਲੇ ਕਦਮ ਨੂੰ ਸੰਜੋਦੀਆਂ ਹਨ।
Android ਦੁਨੀਆਂ ਦੇ ਫੋਨਾਂ ਦਾ ਇੱਕ ਵੱਡਾ ਹਿੱਸਾ ਚਲਾਉਂਦਾ ਹੈ, ਅਤੇ ਇਹ ਗੱਲ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿਉਂਕਿ ਸਭ ਤੋਂ ਪਹਿਲਾ search ਬਾਕਸ ਜ਼ਿਆਦਾਤਰ ਲੋਕਾਂ ਨੂੰ ਡਿਵਾਈਸ ਅਨੁਭਵ ਵਿੱਚ ਹੀ ਮਿਲ ਜਾਂਦਾ ਹੈ। ਪ੍ਰੀ-ਇੰਸਟਾਲ ਕੀਤੀਆਂ ਐਪਾਂ, ਹੋਮ-ਸਕ੍ਰੀਨ ਵਿਡਜਟਾਂ, ਅਤੇ ਡਿਫਾਲਟ ਸੈਟਿੰਗ friction ਨੂੰ ਘਟਾਉਂਦੇ ਹਨ: ਜੇ Search ਇੱਕ swipe ਦੂਰ ਹੈ, ਤਾਂ ਇਹ ਆਦਤ ਬਣ ਜਾਂਦਾ ਹੈ।
Android ਦੀਆਂ ਸਰਵਿਸ bundling ਵੀ ਮਹੱਤਵਪੂਰਨ ਹਨ। ਜਦੋਂ ਮੁੱਖ ਐਪ (Search, Chrome, Maps, YouTube, Play services) ਇੱਕ ਦੂਜੇ ਨਾਲ ਬੇਰੋਕ ਟੋਰ ਤੇ ਕੰਮ ਕਰਦੀਆਂ ਹਨ, ਤਾਂ ਕਿਸੇ ਇੱਕ ਹਿੱਸੇ ਨੂੰ ਬਦਲਣਾ ਫੋਨ ਤੋੜਨ ਵਾਂਗ ਮਹਿਸੂਸ ਹੋ ਸਕਦਾ—ਭਾਵੇਂ ਵਿਕਲਪ ਵਾਜਬ ਤੌਰ 'ਤੇ ਮੌਜੂਦ ਹਨ। ਇਸੀ ਲਈ "default search placement" ਇੱਕ ਛੋਟੀ ਜਿਹੀ ਚੀਜ਼ ਨਹੀਂ; ਇਹ ਹਰ ਰੋਜ਼ ਕਈ ਵਾਰੀ ਦੋਹਰਾ ਕੇ ਇੱਕ ਵ੍ਯਵਹਾਰਿਕ ਨੁਡਜ ਹੈ।
Chrome ਉਪਭੋਗਤਾਵਾਂ ਅਤੇ ਖੁੱਲੇ ਵੈੱਬ ਦੇ ਵਿਚਕਾਰ ਬੈਠਾ ਹੈ। ਤੇਜ਼ੀ, ਸੁਰੱਖਿਆ, ਅਤੇ ਕੁਝ APIs ਨੂੰ ਤਰਜੀਹ ਦੇ ਕੇ, ਇਹ ਇਹ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ ਕਿ websites ਕਿਸ ਲਈ optimize ਕਰਨਗੇ—ਅਤੇ "ਚੰਗੇ" ਵੈੱਬ ਅਨੁਭਵ ਕਿਸ ਤਰ੍ਹਾਂ ਦੇਖਣਗੇ। ਤੇਜ਼ ਪੰਨੇ ਅਤੇ ਸਾਫ਼ ਲੌਗਿਨ ਵੀ search, click, ਅਤੇ ਜਾਰੀ ਰੱਖਣ ਦੀ ਸੰਭਾਵਨਾ ਵਧਾਉਂਦੇ ਹਨ।
Chrome ਇੱਕ ਫੀਡਬੈਕ ਚੈਨਲ ਵੀ ਬਣਾਉਂਦਾ ਹੈ: browser-ਸਤਰ ਸਿਗਨਲ performance ਅਤੇ usability ਬਾਰੇ ਪ੍ਰਭਾਵ ਪਾ ਸਕਦੇ ਹਨ ਜੋ ਇਹ ਪ੍ਰਭਾਵ ਪਾਉਂਦੇ ਹਨ ਕਿ ਸਾਈਟਾਂ ਕਿਵੇਂ ਬਣਦੀਆਂ ਹਨ ਅਤੇ ਪਰੋਛਨ ਤਰੀਕੇ ਨਾਲ ਉਹ ਕਿਵੇਂ ਖੋਜ ਵਿੱਚ ਆਉਂਦੀਆਂ ਹਨ।
ਜਦੋਂ Android ਅਤੇ Chrome ਉਪਭੋਗਤਾਵਾਂ ਤੱਕ ਆਮ ਰਸਤਾ ਬਣ ਜਾਂਦੇ ਹਨ, ਤਾਂ ਭਾਗੀਦਾਰ ਉਨ੍ਹਾਂ ਦੇ ਆਸ-ਪਾਸ ਲੜਦੇ ਹਨ: developers ਪਹਿਲਾਂ Chrome 'ਤੇ ٹੈਸਟ ਕਰਦੇ, publishers performance metrics ਲਈ optimize ਕਰਦੇ, ਅਤੇ ਬਿਜ਼ਨੈਸ Google ਨੂੰ ਡਿਫ਼ੌਲਟ distribution ਸਾਂਝੀਦਾਰ ਮੰਨਦੇ ਹਨ। ਇਹ ਨੈਟਵਰਕ ਪ੍ਰਭਾਵ ਰਸਤੇ ਨੂੰ ਇੱਕ ਰਕੜ ਬਣਾ ਦਿੰਦਾ—ਜ਼ਿਆਦਾ ਕੁਝ ਲੌਕ ਕਰਨ ਨਾਲ ਨਹੀਂ, ਬਲਕਿ ਇੱਕ ਦਰਵਾਜ਼ਾ ਹੋਰਾਂ ਦੀ ਤੁਲਨਾ ਵਿੱਚ ਬਹੁਤ ਵਿਆਵਹਾਰਿਕ ਬਣਾ ਦੇਂਦਾ ਹੈ।
Search ਅਤੇ ads ਸਿਰਫ਼ ਖਰੀਦਦਾਰਾਂ ਅਤੇ ਵਿਕਰੇਤਾਵਾਂ ਨੂੰ ਜੋੜਦੇ ਨਹੀਂ—ਉਹ ਲਗਾਤਾਰ ਫੀਡਬੈਕ ਪੈਦਾ ਕਰਦੇ ਹਨ ਕਿ ਕੀ ਕੰਮ ਕੀਤਾ। ਉਹ ਫੀਡਬੈਕ Alphabet ਨੂੰ ਦੋਹਾਂ ਉਤਪਾਦ (Search) ਅਤੇ ਕਾਰੋਬਾਰੀ ਮਾਡਲ (ads) ਨੂੰ ਬਿਨਾਂ ਅਨੁਮਾਨ ਲਗਾਏ ਟਿਊਨ ਕਰਨ ਦੇ ਯੋਗ ਬਣਾਉਂਦਾ ਹੈ।
"Measurement" ਇੱਕ ਬੁਨਿਆਦੀ ਸਵਾਲ ਦਾ ਜਵਾਬ ਦਿੰਦੀ ਹੈ: ਕੀ ਇਸ ad ਨੇ ਕਿਸੇ ਕੀਮਤੀ ਕਾਰਵਾਈ ਨੂੰ ਜਨਮ ਦਿੱਤਾ? ਅਮਲੀ ਤੌਰ 'ਤੇ, ਇਹ ਆਮਤੌਰ 'ਤੇ ਸ਼ਾਮਿਲ ਹੁੰਦਾ ਹੈ:
ਭਾਵੇਂ measurement ਅਪੂਰਨ ਹੋਵੇ, ਇਹ ਇੱਕ ਸਾਂਝੀ ਸਕੋਰਬੋਰਡ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ। ਵਿਗਿਆਪਨਦਾਤਾ campaigns, keywords, audiences, ਅਤੇ creatives ਦੀ ਤੁਲਨਾ ਕਰ ਸਕਦੇ ਹਨ ਅਤੇ ਬਜਟ ਨੂੰ ਉਹਨਾਂ ਲਈ ਸਹੀ ਥਾਵਾਂ 'ਤੇ ਲਾ ਸਕਦੇ ਹਨ।
ਜਦੋਂ ਵਿਗਿਆਪਨ ਇੱਕ ਨਿਵੇਸ਼ ਵਰਗਾ ਲਗਦਾ ਹੈ ਨਾਂ ਕਿ ਸਿਰਫ਼ "ਮਾਰਕੀਟਿੰਗ", ਤਾਂ ਉਸ ਨੂੰ ਖ਼ਰਚ ਜ਼ਿਆਦਾ ਮਨਜ਼ੂਰ ਹੁੰਦਾ ਹੈ। ਜੇ ਵਿਗਿਆਪਨਦਾਤਾ ਭਰੋਸੇ ਨਾਲ return ਅੰਦਾਜ਼ਾ ਲਾ ਸਕਦਾ ਹੈ (ਜਾਂ ਘੱਟੋ-ਘੱਟ ਦਿਸ਼ਾ-ਅੰਦਾਜ਼ਾ), ਉਹ:
ਇਹ ਖਰਚ ਕਰਨ ਦੀ ਤਿਆਰੀ ਨਿਲਾਮੀ ਨੂੰ ਪੂਰਕ ਬਣਾਂਦੀ ਹੈ: ਵੱਧ ਮੁਕਾਬਲਾ, ਵੱਧ ਡੇਟਾ, ਅਤੇ ਪ੍ਰਸੰਗਿਕਤਾ ਸੁਧਾਰਣ ਦੀ ਮਜ਼ਬੂਤ ਪ੍ਰੇਰਣਾ ਤਾਂ ਜੋ ਯੂਜ਼ਰ ਕਲਿੱਕ ਕਰਦੇ ਰਹਿਣ।
ਜਿਵੇਂ browsers ਅਤੇ platforms cross-site identifiers (cookies, mobile ad IDs) ਘਟਾ ਰਹੇ ਹਨ, ਮਾਪ third-party tracking ਤੋਂ first-party data ਤੇ ਵੱਧਦਾ ਜਾ ਰਹਾ ਹੈ—ਉਹ ਸਿੰਗਨਲ ਜੋ ਇੱਕ ਕਾਰੋਬਾਰ ਸਿੱਧਾ ਰਾਹੀਂ ਇਕੱਠੇ ਕਰਦਾ ਹੈ (logged-in sessions, purchases, CRM lists, on-site behavior)। ਇਸ ਨਾਲ products aggregated ਅਤੇ modeled reporting ਵੱਲ ਧਕਿਆ ਜਾਂਦਾ ਹੈ, ਅਤੇ ਉਹ ਟੂਲ ਜਿਹੜੇ "advertiser ਦੀ ਪਾਸੇ" ਕੰਮ ਕਰਦੇ ਹਨ (ਉਦਾਹਰਨ ਲਈ, server-to-server conversion uploads) ਵਧ ਰਹੇ ਹਨ।
ਮਾਪ-ਚੋਣਾਂ ਹੁਣ ਨਿਯਮਕ, ਪਲੇਟਫਾਰਮ ਅਤੇ ਯੂਜ਼ਰਾਂ ਵੱਲੋਂ ਲਗਾਤਾਰ ਨਿਗਰਾਨੀ ਹੇਠਾਂ ਹੁੰਦੀਆਂ ਹਨ। consent, data minimization, ਅਤੇ transparency ਦੇ ਚਰਚੇ ਇਹ ਨਿਰਧਾਰਿਤ ਕਰਦੇ ਹਨ ਕਿ ਕੀ ਮਾਪਿਆ ਜਾ ਸਕਦਾ ਹੈ, ਡੇਟਾ ਕਿੰਨੀ ਦੇਰ ਰੱਖਿਆ ਜਾ ਸਕਦਾ ਹੈ, ਅਤੇ ਕਿਵੇਂ ਨਿਯੰਤਰ ਪੇਸ਼ ਕੀਤੇ ਜਾਂਦੇ ਹਨ। ਨਤੀਜਾ ਇੱਕ ਫ਼ੀਡਬੈਕ-ਲੂਪ ਨਾਲ ਨਿਯਮ ਹਨ: ਪ੍ਰਦਰਸ਼ਨ ਵੱਧ ਤੋਂ ਵੱਧ ਕਰੋ, ਪਰ ਉਹਨਾਂ ਨਿਯਮਾਂ ਦੇ ਅੰਦਰ ਜੋ ਭਰੋਸਾ ਅਤੇ ਕਾਨੂੰਨੀ ਪਾਲਣਾ ਸੁਰੱਖਿਅਤ ਕਰਨ ਲਈ ਬਣਾਏ ਗਏ ਹਨ।
Search ਸ਼ੁਰੂਆਤ ਵਿੱਚ ਬਹੁਤ ਸਾਰੇ ਨਿਯਮਾਂ ਦੀ ਇੱਕ ਵੱਡੀ ਸੈਟ ਸੀ: ਲਿੰਕ ਗਿਣੋ, ਪੇਜ਼ ਦੇ ਟੈਕਸਟ ਨੂੰ ਪੜ੍ਹੋ, ਅਤੇ ਹੱਥ-ਸੈਟ ਕੀਤੇ ਸਿਗਨਲ ਲਗਾਓ। ਇਹ ਅਚਾਨਕ ਚੰਗਾ ਕੰਮ ਕੀਤਾ—ਪਰ ਜਦ ਵੈੱਬ ਦਾ ਆਕਾਰ, ਭਾਸ਼ਾਵਾਂ, ਫਾਰਮੈਟ, ਅਤੇ ਚਾਲਾਂ ਵਧੀਆਂ, ਆਸਾਨ ਨਿਯਮ ਸਾਰਥਕ ਨਹੀਂ ਰਹੇ। machine learning ਨੂੰ ਅਪਣਾਉਣਾ ਹਾਈਪ ਲਈ ਨਹੀਂ ਸੀ; ਇਹ ਉਪਯੋਗਿਤਾ ਬਰਕਰਾਰ ਰੱਖਣ ਲਈ ਲਾਜ਼ਮੀ ਸੀ ਜਦ ਵੀ ਸਧਾਰਨ ਨਿਯਮ ਪੈਮਾਨੇ 'ਤੇ ਕੰਮ ਨਹੀਂ ਕਰ ਰਹੇ।
ਆਧੁਨਿਕ ranking ਹਾਲੇ ਵੀ ਬਹੁਤ ਸਾਰੇ ਸਿਗਨਲ ਵਰਤਦਾ ਹੈ (freshness, location, page quality, ਆਦਿ), ਪਰ ML ਇਹ ਫੈਸਲਾ ਕਰਦਾ ਹੈ ਕਿ ਉਹ ਸਿਗਨਲ ਕਿਸ ਤਰ੍ਹਾਂ ਕਿਸ ਖਾਸ ਕਵੈਰੀ ਲਈ ਮਹੱਤਵ ਰਖਦੇ ਹਨ। ਇੱਕ ਗਲੋਬਲ ਨੁਸਖੇ ਦੀ ਥਾਂ, ਮਾਡਲ aggregated behavior ਅਤੇ evaluator feedback ਤੋਂ ਪੈਟਰਨ ਸਿੱਖ ਸਕਦੇ ਹਨ: ਜਦੋਂ ਲੋਕ ਤੁਰੰਤ ਵਾਪਸ ਆ ਜਾਂਦੇ ਹਨ, ਜਦੋਂ ਉਹ queries ਨੂੰ ਬਦਲਦੇ ਹਨ, ਅਤੇ ਕਿਹੜੇ ਪੰਨੇ ਕੁਝ ਇਰਾਦਿਆਂ ਨੂੰ ਪੂਰਾ ਕਰਦੇ ਹਨ।
ਨਤੀਜਾ ਪ੍ਰਾਇਗਮੈਟਿਕ ਹੈ: ਘੱਟ ਜ਼ਿਆਦਾ ਗਲਤ ਨਤੀਜੇ, ambiguous searches ਦਾ ਵਧੀਆ ਹੱਲ ("jaguar" ਜਾਨਵਰ বনਾਮ ਕਾਰ), ਅਤੇ ਲੰਬੀਆਂ, ਨੈਚਰਲ ਭਾਸ਼ਾ ਵਾਲੀਆਂ queries ਦੀ ਬਿਹਤਰ ਸਮਝ।
ML search ਅਤੇ ads ਦੀ ਨਲਕ ਵਿਚ ਵੱਧਤੋਂ ਵੱਧ ਵਰਤੀ ਜਾਂਦੀ ਹੈ:
ਇਹ ਮਹੱਤਵ ਰੱਖਦਾ ਹੈ ਕਿਉਂਕਿ ਪ੍ਰਸੰਗਿਕਤਾ ਉਤਪਾਦ ਹੈ। ਚੰਗੀ ਪ੍ਰਸੰਗਿਕਤਾ ਭਰੋਸਾ ਵਧਾਉਂਦੀ ਹੈ, ਜੋ ਉਪਯੋਗਤਾ ਵਧਾਉਂਦੀ ਹੈ, ਜੋ ਹੋਰ ਫੀਡਬੈਕ ਪੈਦਾ ਕਰਦੀ ਹੈ ਅਤੇ ਸੁਧਾਰ ਲਈ ਪੂਰਨ ਚੱਕਰ ਬਣਾਉਂਦੀ ਹੈ।
ਪਿੱਛੇ-ਦੇ-ਦ੍ਰਿਸ਼ ਵਿੱਚ, "AI" ਇੱਕ operations ਸਟੈਕ ਹੈ: ਵਿਸ਼ੇਸ਼ ਚਿੱਪ, trained models, ਅਤੇ ਪਾਈਪਲਾਈਨ ਜੋ updates ਨੂੰ ਸੇਫ਼ ਤਰੀਕੇ ਨਾਲ deploy ਕਰਦੇ ਹਨ।
ਜਦ ਇਹ ਸਭ ਚੰਗੀ ਤਰ੍ਹਾਂ ਕੰਮ ਕਰਦਾ ਹੈ, ਯੂਜ਼ਰ ਤੇਜ਼ ਜਵਾਬ ਅਤੇ ਘੱਟ ਜੰਕ ਨਤੀਜੇ ਦੇਖਦੇ ਹਨ—ਅਤੇ ਵਿਗਿਆਪਨਦਾਤਾ ਜ਼ਿਆਦਾ ਕੁਸ਼ਲ ਮੈਚਿੰਗ ਪ੍ਰਾਪਤ ਕਰਦੇ ਹਨ—ਬਿਨਾਂ ਇਸ ਮਸ਼ੀਨਰੀ ਬਾਰੇ ਸੋਚੇ।
Alphabet ਦਾ ਫ਼ਾਇਦਾ ਸਿਰਫ਼ "ਚੰਗੇ algorithms" ਨਹੀਂ। ਇਹ ਉਹ ਯੋਗਤਾ ਹੈ ਜੋ ਉਹ algorithms ਨੂੰ ਸਸਤੇ, ਤੇਜ਼, ਅਤੇ ਹਰ ਥਾਂ ਚਲਾਉਣ ਦੀ ਸਮਰੱਥਾ ਦਿੰਦੀ ਹੈ—ਇੱਕ ਅਜਿਹੇ ਪੈਮਾਨੇ 'ਤੇ ਜੋ ਜ਼ਿਆਦਾਤਰ ਕੰਪਨੀਆਂ ਚੁੱਕ ਨਹੀਂ ਸਕਦੀਆਂ। Compute ਉਤਪਾਦੀ ਵਿਸ਼ੇਸ਼ਤਾ ਬਣ ਜਾਂਦੀ ਹੈ ਜਦ(milliseconds ਅਤੇ pennies) ਫ਼ੈਸਲਾ ਕਰਦੇ ਹਨ ਕਿ ਕਿਹੜੇ ਨਤੀਜੇ ਤੁਸੀਂ ਦੇਖੋਂਗੇ, ਕਿਹੜਾ ad ਜਿੱਤੇਗਾ, ਅਤੇ ਕੀ AI model ਨਿਭਾਉਣਯੋਗ ਹੈ।
ਆਧੁਨਿਕ AI models ਦਾ training ਅਤੇ serving ਮਹਿੰਗਾ ਹੈ। General-purpose chips ਕੰਮ ਕਰ ਸਕਦੇ ਹਨ, ਪਰ ਉਹ ਸਦੈਵ cost-efficient ਨਹੀਂ ਹੁੰਦੇ ਜੋ machine learning ਕਾਰਜਾਂ ਲਈ ਲੋੜੀਦੇ ਹਨ।
TPUs (Tensor Processing Units) ਉਹ ਖਾਸ ਤੌਰ 'ਤੇ ਤਿਆਰ ਕੀਤੇ ਗਏ ਹੋਟੇ ਹਨ ਜੋ ਉਹ ਲੋਡਜ਼ ਚਲਾਉਂਦੇ ਹਨ ਜਿਨ੍ਹਾਂ 'ਤੇ ML ਨਿਰਭਰ ਕਰਦਾ ਹੈ, ਅਤੇ ਇਹ ਚਾਰ ਤਰੀਕਿਆਂ ਨਾਲ ਅਹੰਕਾਰਕ ਹੁੰਦੇ ਹਨ:
Alphabet Search, YouTube, Ads, Maps, ਅਤੇ Cloud ਲਈ ਵੱਖ-ਵੱਖ compute stacks ਨਹੀਂ ਬਣਾਉਂਦਾ। ਅਧਿਕਾਰਤ infrastructure—ਡੇਟਾ ਸੈਂਟਰ, ਨੈਟਵਰਕਿੰਗ, ਸਟੋਰੇਜ, ਅਤੇ ML platforms—ਕਾਫੀ ਹੱਦ ਤੱਕ ਸਾਂਝੇ ਹੁੰਦੇ ਹਨ।
ਇਹ ਸਾਂਝਾ ਬੇਸ efficiencies ਪੈਦਾ ਕਰਦਾ ਹੈ: model tooling, chip utilization, ਜਾਂ data-center power management 'ਚ ਸੁਧਾਰ ਬਹੁਤ ਉਤਪਾਦਾਂ ਲਈ ਇੱਕੋ ਵਾਰੀ ਲਾਭਦਾਇਕ ਹੁੰਦਾ ਹੈ। ਇਹ ਟੀਮਾਂ ਨੂੰ ਸਾਬਤ ਕੀਤੇ ਕੰਪੋਨੈਂਟਾਂ ਨੂੰ ਦੁਬਾਰਾ ਵਰਤਣ ਯੋਗ ਬਣਾਉਂਦਾ ਹੈ ਬਜਾਏ ਹਰ ਵਾਰੀ ਨਵਾਂ ਬਣਾਉਣ ਦੇ।
ਵੱਧ ਉਪਯੋਗਤਾ ਵੱਧ ਰੇਵਿਨਿਊ (ਖ਼ਾਸ ਕਰਕੇ ads ਰਾਹੀਂ) ਲਿਆਉਂਦੀ ਹੈ। ਰੇਵਿਨਿਊ ਹੋਰ compute ਸਮਰੱਥਾ ਅਤੇ ਚੰਗੇ infrastructure ਲਈ ਨਿਵੇਸ਼ ਕਰਦਾ ਹੈ। ਚੰਗਾ infrastructure ਬਿਹਤਰ models ਅਤੇ ਤੇਜ਼ ਉਤਪਾਦ ਯੋਗ ਕਰਦਾ ਹੈ। ਉਹ ਸੁਧਾਰ ਹੋਰ ਉਪਯੋਗਤਾ ਖਿੱਚਦੇ ਹਨ।
ਇਹ ਇੱਕ ਗੁਣਾ-ਵਧਾਉਣ ਵਾਲਾ ਪ੍ਰਭਾਵ ਹੈ: ਲੂਪ ਦਾ ਹਰ ਚੱਕਰ ਅਗਲੇ ਚੱਕਰ ਨੂੰ ਆਸਾਨ ਬਣਾ ਦਿੰਦਾ ਹੈ।
AI infrastructure ਸਿਰਫ਼ ਅੰਦਰੂਨੀ ਗਰਿਮਾਂ ਨਹੀਂ—ਇਹ ਰੋਜ਼ਾਨਾ ਦੇ ਅਨੁਭਵਾਂ ਵਿੱਚ ਦਿਖਾਈ ਦਿੰਦਾ ਹੈ:
Compute ਰਣਨੀਤੀ ਹੈ ਕਿਉਂਕਿ ਇਹ AI ਨੂੰ ਇੱਕ ਵੈਨ-ਫੀਚਰ ਤੋਂ ਡਿਫਾਅਲਟ ਯੋਗਤਾ ਵਿੱਚ ਬਦਲ ਦਿੰਦੀ—ਇੱਕ ਜੋ ਭਰੋਸੇਯੋਗ, ਪੈਮਾਨੇ 'ਤੇ, ਅਤੇ ਇੱਕ ਲਾਗਤ 'ਤੇ ਪੇਸ਼ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ ਜੋ ਮੁਕਾਬਲੇ ਨੂੰ ਮੁਸ਼ਕਲ ਬਣਾਉਂਦੀ ਹੈ।
Search ਅਤੇ ads ਦੋ ਵੱਖ-ਵੱਖ ਉਤਪਾਦ ਨਹੀਂ ਹਨ ਜੋ ਇਕਦੂਜੇ ਦੇ ਨਾਲ ਖੜੇ ਹਨ—ਉਹ ਇਕ pipeline ਹਨ ਜੋ ਲੋਕਾਂ ਨੂੰ "ਮੈਨੂੰ ਜਾਣਕਾਰੀ ਚਾਹੀਦੀ ਹੈ" ਤੋਂ "ਮੈਂ ਖਰੀਦ ਰਿਹਾ ਹਾਂ" ਤੱਕ ਲੈ ਜਾਂਦਾ ਹੈ, ਅਕਸਰ ਕੁਝ ਹੀ ਮਿੰਟਾਂ ਵਿੱਚ। ਕੁੰਜੀ ਗੱਲ ਇਹ ਹੈ ਕਿ ਦੋਹਾਂ organic ਨਤੀਜੇ ਅਤੇ paid listings ਇੱਕੋ ਇਰਾਦੇ ਦਾ ਜਵਾਬ ਦਿੰਦੇ ਹਨ, ਇੱਕੋ ਪੰਨੇ 'ਤੇ, ਇੱਕੋ ਸਮੇਂ।
ਆਮ ਕਵੈਰੀ 'ਤੇ, organic ਨਤੀਜੇ ਅਤੇ ads ਇੱਕੋ scarce resources ਲਈ ਧਿਆਨ ਦੀ ਮੁਕਾਬਲਾ ਕਰਦੇ ਹਨ: above-the-fold space ਅਤੇ ਯੂਜ਼ਰ ਭਰੋਸਾ। Ads ਰੱਖ-ਸਥਾਨ ਅਤੇ ਸਪੱਸ਼ਟ ਓਫ਼ਰ (ਕੀਮਤ, ਸ਼ਿਪਿੰਗ, ਪ੍ਰੋਮੋਸ਼ਨ) 'ਤੇ ਜਿੱਤ ਸਕਦੇ ਹਨ। Organic ਅਥਾਰਟੀ, ਗਹਿਰਾਈ, ਅਤੇ ਨੈਟਰਲਟਿ ਦਾ ਧਾਰਣਾ ਨਾਲ ਜਿੱਤ ਸਕਦਾ ਹੈ।
ਅਮਲੀ ਤੌਰ 'ਤੇ, "ਜਿੱਤਣ ਵਾਲਾ" ਆਮ ਤੌਰ 'ਤੇ ਉਹ ਨਤੀਜਾ ਹੁੰਦਾ ਹੈ ਜੋ ਯੂਜ਼ਰ ਦੀ ਤੁਰੈਂਤਤਾ ਨਾਲ ਸਭ ਤੋਂ ਚੰਗੀ ਤਰ੍ਹਾਂ ਮਿਲਦਾ—"ਖਰੀਦ" ਲਈ shopping ads, "ਕਿਵੇਂ" ਲਈ organic guides, "near me" ਲਈ local packs।
ਆਧੁਨਿਕ ਨਤੀਜੇ ਪੰਨੇ "ਦਸ ਸੈਲੇਕਟ ਲਿੰਕਾਂ" ਤੋਂ ਘੱਟ ਅਤੇ ਵੱਧ modules ਵਾਲੇ ਹੁੰਦੇ ਹਨ: featured snippets, map packs, product grids, "People also ask", ਅਤੇ rich results। ਇਹ ਫੀਚਰ ਟਰੈਫਿਕ ਐਸੇ ਦੋ ਤਰੀਕਿਆਂ ਨਾਲ ਬਦਲ ਦਿੰਦੀਆਂ ਹਨ:
ਕਾਰੋਬਾਰਾਂ ਲਈ, ਇਹ ਮਤਲਬ ਹੈ ਕਿ #1 ਰੈਂਕ ਹੋਣਾ ਹੁਣ ਸਾਰੀ ਗੱਲ ਨਹੀਂ ਰਹਿ ਗਿਆ। ਵਿਸ਼ਨਤਾ ਹੁਣ ਇਹ ਹੈ ਕਿ ਸਹੀ module (local listings, Merchant Center feeds, structured data) ਵਿੱਚ ਹੋਣਾ ਅਤੇ ਯੂਜ਼ਰ ਤਿਆਰ ਹੋਣ 'ਤੇ ਮਨੋਹਰ ਓਫਰ ਹੋਣਾ ਵੀ ਜ਼ਰੂਰੀ ਹੈ।
ਛੋਟੇ ਧੰਦੇ ਲਈ ਉੱਪਰ ਵਾਲਾ ਫਾਇਦਾ ਫੌਰਨ ਮੰਗ ਕੈਪਚਰ ਹੈ: ਤੁਸੀਂ ads ਰਾਹੀਂ ਲਾਂਚ ਦੇ ਦਿਨ ਹੀ ਦਿਖ ਸਕਦੇ ਹੋ, ਫਿਰ ਲੰਬੇ ਸਮੇਂ ਲਈ organic credibility ਬਣਾਉ। ਖਤਰਾ ਨਿਰਭਰਤਾ ਹੈ—ਜੇ ਵੱਡਾ ਹਿੱਸਾ ਆਮਦਨ ਇੱਕ ਹੀ ਕੁੰਜੀ-ਸ਼ਬਦ ਜਾਂ ਇੱਕ ਸਪਲੈਟਫਾਰਮ ਦੀ ਲੇਆਊਟ 'ਤੇ ਨਿਰਭਰ ਹੋਵੇ, ਕਿਸੇ ਵੀ ਬਦਲਾਅ (ਕੀਮਤਾਂ, ਨੀਤੀਆਂ, ਨਵੀਂ ਫੀਚਰ) ਨੇ ਆਮਦਨ ਨੂੰ ਇੱਕ ਰਾਤ ਵਿੱਚ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦਾ ਹੈ।
ਸਿਰਜਣਹਾਰਾਂ ਨੂੰ ਇੱਕੋ ਜਿਹਾ ਦਬਾਅ ਹੈ: search consistent discovery ਦੇ ਸਕਦੀ ਹੈ, ਪਰ on-page answers ਅਤੇ snippets click-through ਨੂੰ ਘਟਾ ਸਕਦੇ ਹਨ। ਇੱਕ ਵਿਆਵਹਾਰਿਕ ਸੋਚ ਇਹ ਹੈ ਕਿ search ਨੂੰ ਇੱਕ ਚੈਨਲ ਸਮਝੋ, ਘਰ ਨਹੀਂ।
ਅਧਿਗ੍ਰਹਣ ਨੂੰ ਵੱਖ-ਵੱਖ ਕਰੋ (email list, referrals, social, partnerships, local communities) ਤਾਂ ਜੋ search ਜੋੜਣ ਵਾਲਾ ਹੋ, ਮੂਲ ਨਾ ਹੋਵੇ। ਅਤੇ incrementality ਮਾਪੋ: controlled tests (geo splits, time-based holdouts, brand vs. non-brand separation) ਚਲਾਓ ਤਾਂ ਕਿ ਪਤਾ ਲੱਗੇ ads ਕੀ ਸੱਚਮੁੱਚ ਬਣਾਉਂਦੇ ਹਨ ਅਤੇ ਕੀ ਉਹ ਸਿਰਫ਼ organic ਮੰਗ ਨੂੰ ਕੈਪਚਰ ਕਰ ਰਹੇ ਹਨ। ਇਹ ਆਦਤ discovery-to-checkout pipeline ਨੂੰ ਨਫੇਕਸ਼ੀਲ ਰੱਖਦੀ ਹੈ—ਸਿਰਫ਼ ਬਿਜ਼ੀ ਨਹੀਂ।
Alphabet ਦਾ ਡਿਫਾਅਲਟ ਰੂਪ ਜਾਣਕਾਰੀ ਅਤੇ ਗਾਹਕਾਂ ਤੱਕ ਪਹੁੰਚਣ ਦਾ ਰਾਹ ਬਣਨਾ ਹੀ ਉਸ ਨੂੰ ਆਮ ਨਿਸ਼ਾਨੇ ਬਣਾਉਂਦਾ ਹੈ। ਜੋ ਪ੍ਰਣਾਲੀ ਇਰਾਦੇ ਨੂੰ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਤਰੀਕੇ ਨਾਲ ਮਿਲਾਉਂਦੀ ਹੈ, ਉਹ ਸ਼ਕਤੀ ਇਕੱਤਰ ਕਰ ਸਕਦੀ ਹੈ—ਅਤੇ ਇਹ ਸਵਾਲ ਪੈਦਾ ਕਰਦਾ ਹੈ ਕਿ ਕਿਸ ਨੂੰ ਕਿਹੜੀ ਦਿੱਖ ਮਿਲਦੀ ਹੈ, ਕਿਸ ਸ਼ਰਤਾਂ 'ਤੇ, ਅਤੇ ਕਿਹੜੀ ਨਿਗਰਾਨੀ ਨਾਲ।
ਇੱਕ ਆਮ ਆਲੋਚਨਾ ਬਾਜ਼ਾਰੀ ਤਾਕਤ ਦੀ ਹੈ: ਜਦੋਂ ਇਕ ਕੰਪਨੀ ਇੰਨੀ ਖੋਜ-ਮਧਸਥਤਾ ਕਰਦੀ ਹੈ, ਤਾਂ ਰੈਂਕਿੰਗ, UI, ਜਾਂ ad ਫਾਰਮੈਟਾਂ ਵਿੱਚ ਇੱਕ ਛੋਟਾ-ਜਿਹਾ ਬਦਲਾਅ ਪੂਰੇ ਉਦਯੋਗ ਨੂੰ ਰੀਸ਼ੇਪ ਕਰ ਸਕਦਾ ਹੈ। ਇਸ ਲਈ self-preferencing ਦੇ ਦੋਸ਼ ਮਹੱਤਵਪੂਰਨ ਹਨ—ਕੀ Google ਆਪਣੇ ਹੀ ਪ੍ਰਾਪਰਟੀਜ਼ (shopping, local, travel, video) ਵੱਲ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਘੁੰਮਾਉਂਦਾ ਹੈ, ਭਾਵੇਂ ਵਿਕਲਪ ਬੇਤਰ ਹੋ ਸਕਦੇ ਹਨ।
ਦੂਜਾ ਅਮਲੀ ਮੁੱਦਾ ad load ਦਾ ਹੈ। ਜੇ ਵੱਧ queries 'ਤੇ ਵੱਧ paid placements ਦਿਖਾਏ ਜਾਂਦੇ ਹਨ, ਤਾਂ publishers ਅਤੇ merchants ਮਹਿਸੂਸ ਕਰ ਸਕਦੇ ਹਨ ਕਿ ਉਹ audiences ਨੂੰ ਕਿਰਾਏ 'ਤੇ ਲੈ ਰਹੇ ਹਨ ਜੋ ਪਹਿਲਾਂ ਉਹ ਆਰਗੈਨਿਕ ਤੌਰ 'ਤੇ ਪਹੁੰਚਦੇ ਸਨ।
ਨਿਯਮਕ ਦਬਾਅ ਆਮ ਤੌਰ 'ਤੇ ਤਿੰਨ ਥੀਮਾਂ 'ਤੇ ਕੇਂਦਰਿਤ ਹੁੰਦਾ ਹੈ:
ਨਤੀਜੇ ਨਵੇਂ disclosure ਦੀਆਂ ਲੋੜਾਂ, default agreements 'ਤੇ ਸੀਮਾਵਾਂ, ਜਾਂ ad ਅਤੇ measurement systems ਦੇ ਢੰਗ 'ਚ ਬਦਲਾਅ ਤੱਕ ਹੋ ਸਕਦੇ ਹਨ।
ਜਿਵੇਂ AI-generated summaries ਪੰਨੇ ਉੱਤੇ ਉੱਚੇ ਆਉਂਦੇ ਹਨ, ਕੁਝ ਕਵੈਰੀਆਂ ਬਿਨਾਂ ਕਲਿੱਕ ਦੇ ਖਤਮ ਹੋ ਸਕਦੀਆਂ ਹਨ। ਇਹ publishers ਲਈ ਟ੍ਰੈਫਿਕ ਘਟਾਉਣ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦਾ ਹੈ, ਪਰੰਪਰਾਗਤ "search → site → monetize" ਚੇਨ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰ ਸਕਦਾ ਹੈ, ਅਤੇ ਹੋਰ ਵੈਲਯੂ ਉਹਨਾਂ ਇਕਾਈਆਂ 'ਚ ਧੱਕ ਸਕਦੀ ਹੈ ਜੋ platform ਆਪਣੇ ਨੰਤਰ ਨਿਰੰਤਰ ਕੰਟਰੋਲ ਕਰਦਾ ਹੈ।
ਖੁੱਲਾ ਸਵਾਲ ਇਹ ਨਹੀ ਹੈ ਕਿ ਜਵਾਬ ਹੋਰ "ਸਿੱਧਾ" ਹੋਣਗੇ, ਬਲਕਿ ਇਹ ਹੈ ਕਿ ਜਦੋਂ interface ਖੁਦ ਹੀ ਮੰਜ਼ਿਲ ਬਣ ਜਾਂਦੀ ਹੈ, ਤਦ ਕਿਵੇਂ ਮੁੱਲ ਮੁੜ-ਵੰਡਿਆ ਜਾਂਦਾ ਹੈ।
default settings ਦੀਆਂ ਲੜਾਈਆਂ, measurement ਬਦਲਾਅ (ਖ਼ਾਸ ਕਰਕੇ cookies ਅਤੇ attribution ਦੇ ਆਲੇ-ਦੁਆਲੇ), ਅਤੇ discovery ਆਦਤਾਂ ਵਿੱਚ ਬਦਲਾਅ 'ਤੇ ਨਜ਼ਰ ਰੱਖੋ—ਵਧਦੀਆਂ conversational queries, ਜ਼ਿਆਦਾ in-app search, ਅਤੇ ਜ਼ਿਆਦਾ answer-first experiences।
ਜੇ Google ਇਰਾਦੇ ਲਈ ਵੈੱਬ ਦਾ ਡਿਫਾਲਟ ਮੱਧ-ਪਰਤ ਹੈ, ਤਾਂ ਉਤਪਾਦ ਜ਼ਿਆਦਾ ਬਹੁਤ ਇਸ ਗੱਲ 'ਤੇ ਹਾਰ ਜਾਂ ਜਿੱਤਦੇ ਹਨ ਕਿ ਉਹ ਇਰਾਦੇ ਨੂੰ ਨਤੀਜਿਆਂ ਵਿੱਚ ਕਿੰਨਾ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਤਰੀਕੇ ਨਾਲ ਤਬਦੀਲ ਕਰ ਸਕਦੇ ਹਨ: ਸਾਫ਼ ਪੰਨੇ, ਤੇਜ਼ ਅਨੁਭਵ, ਮਾਪੇ ਜਾ ਸਕਣ ਵਾਲੀਆਂ conversions, ਅਤੇ ਉਹ ਸਿਸਟਮ ਜੋ ਖੋਜ ਲਿੰਕਾਂ ਤੋਂ summaries ਵੱਲ ਬਦਲਣ 'ਤੇ ਅਨੁਕੂਲ ਹੋ ਸਕਦੇ ਹਨ।
ਇਹ modern "AI-assisted building" ਦਾ ਭੀ ਸਥਾਨ ਹੈ। ਪਲੈਟਫਾਰਮਾਂ ਜਿਵੇਂ Koder.ai ਇੱਕ ਸਮਾਨ ਵਿਚਾਰ ਲਗਾਉਂਦੇ ਹਨ—ਸাধਾਰਨ ਭਾਸ਼ਾ ਇरਾਦੇ ਨੂੰ ਕੰਮ ਕਰਦੇ ਸੌਫਟਵੇਅਰ ਵਿੱਚ ਬਦਲਣਾ—ਟੀਮਾਂ ਨੂੰ web, backend, ਅਤੇ mobile applications chat ਇੰਟਰਫੇਸ ਰਾਹੀਂ ਬਣਾਉਣ ਦਿੰਦੇ ਹਨ (React on the web, Go + PostgreSQL on the backend, Flutter for mobile)। ਇੱਕ ਸੰਸਾਰ ਵਿੱਚ ਜੋ ਫੀਡਬੈਕ ਲੂਪ (measure → iterate → deploy) ਦੁਆਰਾ ਰੂਪ ਪਾ ਰਿਹਾ ਹੈ, ਐਸੇ ਟੂਲ ਜੋ ਵਿਚਾਰ ਤੋਂ ਇੰਪਲੀਮੈਂਟੇਸ਼ਨ ਤੱਕ ਦੇ ਚੱਕਰ ਨੂੰ ਛੋਟਾ ਕਰਦੇ ਹਨ ਇੱਕ ਮੁਕਾਬਲਾਤੀ ਫਾਇਦਾ ਬਣ ਜਾਂਦੇ ਹਨ, ਖਾਸ ਕਰਕੇ ਜਦੋਂ ਉਹ planning mode, snapshots, rollback, ਅਤੇ source code export ਵਰਗੀਆਂ ਅਮਲੀ ਨਿਯੰਤਰਾਂ ਨਾਲ ਜੋੜੇ ਜਾਂਦੇ ਹਨ।
Alphabet (via Google) ਤਿੰਨ ਗਰੁੱਪਾਂ ਦੇ ਵਿਚਕਾਰ ਖੜਾ ਹੈ ਜੋ ਇਕ ਦੂਜੇ 'ਤੇ ਨਿਰਭਰ ਹਨ ਪਰ ਅਕਸਰ ਚੰਗੀ ਤਰ੍ਹਾਂ ਸਹਿਮਤ ਨਹੀਂ ਹੋਂਦੇ: ਤੇਜ਼, ਸਬੰਧਤ ਜਵਾਬ ਲੈਣ ਵਾਲੇ ਯੂਜ਼ਰ; ਟ੍ਰੈਫਿਕ ਅਤੇ ਆਮਦਨੀ ਚਾਹੁੰਦੇ ਪਬਲਿਸ਼ਰ; ਅਤੇ ਮਾਪੇ ਜਾਣ ਯੋਗ ਮੰਗ ਫੜਨ ਵਾਲੇ ਵਿਗਿਆਪਨਦਾਤਾ। Search ਧਿਆਨ ਰਾਹੀਂ ਰਾਹ ਦਿਖਾਉਂਦਾ ਹੈ, ads ਮਨੋਰਥ ਨੂੰ ਮੋਨੇਟਾਈਜ਼ ਕਰਦੇ ਹਨ, ਅਤੇ infrastructure/AI ਵਿਸ਼ਾਲ ਪੈਮਾਨੇ 'ਤੇ ਪ੍ਰਸੰਗਿਕਤਾ ਅਤੇ ਗਤੀ ਬਰਕਰਾਰ ਰੱਖਦੇ ਹਨ।
ਕਿਉਂਕਿ ਕਵੈਰੀਆਂ ਸਕ੍ਰਿਯ ਮਨੋਰਥ ਪ੍ਰਗਟ ਕਰਦੀਆਂ ਹਨ (ਉਦਾਹਰਣ: “flights to Tokyo”, “emergency plumber”)—ਇਹ ਪੈਸਿਵ ਦਿਲਚਸਪੀ ਨਾਲੋਂ ਵੱਖਰੀਆਂ ਹੁੰਦੀਆਂ ਹਨ। ਇਸ ਨਾਲ ਖੋਜ ਫੈਸਲੇ ਦੇ ਨੱਝੇ ਹੋਣ ਕਰਕੇ ਹਰ ਚੀਜ਼ ਨੂੰ ਕਾਰਵਾਈ ਵੱਲ ਲੈ ਜਾਣ ਦਾ ਰਸਤਾ ਸੁਭਾਅਵਿਕ ਬਣਦਾ ਹੈ, ਜੋ ਯੂਜ਼ਰਾਂ ਲਈ ਪ੍ਰਸੰਗਿਕਤਾ ਅਤੇ ਵਿਗਿਆਪਨਦਾਤਾਂ ਲਈ ਮੋਨੇਟਾਈਜ਼ੇਸ਼ਨ ਦੋਹਾਂ ਲਈ ਲਾਭਕ਼ਾਰਕ ਹੈ।
ਸ਼ੁਰੂਆਤੀ ਵੈੱਬ ਖੋਜ ਨੂੰ ਚੁਣੌਤੀਆਂ ਸਨ:
Google ਨੇ ਵੈੱਬ ਦੀ ਸੰਰਚਨਾ ਅਤੇ ਵਿਹਾਰ ਨੂੰ ਇੱਕ ਸਿਗਨਲ ਸਿਸਟਮ ਵਜੋਂ ਵਰਤਣਾ ਸ਼ੁਰੂ ਕੀਤਾ, ਜਿਸ ਨਾਲ ਉਪਯੁਕਤ ਪੰਨਿਆਂ ਦੀ ਪਛਾਣ ਦੀ ਦਰ ਸੁਧਰੀ।
PageRank-ਸ਼ੈਲੀ ਤਰਕ ਵਿੱਚ links ਨੂੰ credibility ਸਿਗਨਲ ਵਜੋਂ ਵੇਖਿਆ ਜਾਂਦਾ ਹੈ: ਇੱਕ link ਇੱਕ "ਵੋਟ" ਹੈ, ਅਤੇ ਭਰੋਸੇਮੰਦ ਸਾਈਟਾਂ ਤੋਂ ਆਉਣ ਵਾਲੀਆਂ ਵੋਟਾਂ ਦਾ ਵਜ਼ਨ ਜ਼ਿਆਦਾ ਹੁੰਦਾ ਹੈ। ਇਹ ਇੱਕੱਲਾ ਗੁਣਵੱਤਾ ਨਹੀਂ ਪੱਕੀ ਕਰਦਾ (spam ਵੀ links ਨਕਲ ਕਰ ਸਕਦਾ ਹੈ), ਪਰ ਇਹ ਬੇਹਤਰੀਨ ਸਰੋਤਾਂ ਨੂੰ ਨੂੰ ਅਲੱਗ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ—ਖਾਸ ਕਰਕੇ ਹੋਰ ਸਿਗਨਲਾਂ ਦੇ ਨਾਲ ਮਿਲ ਕੇ।
ਗਤੀ ਅਤੇ ਸਾਫ਼ ਇੰਟਰਫੇਸ friction ਨੂੰ ਘਟਾਉਂਦੇ ਹਨ, ਇਸ ਲਈ ਖੋਜ ਦੇ ਅਨੁਭਵ ਨੂੰ ਰੋਜ਼ਾਨਾ ਦੀ ਆਦਤ ਬਣਾਉਣਾ ਅਸਾਨ ਹੋ ਜਾਂਦਾ ਹੈ। ਜਦੋਂ “ਸਵਾਲ ਲਿਖੋ → ਤੇਜ਼ ਅਤੇ ਉਪਯੁਕਤ ਨਤੀਜੇ” ਕੁਝ ਵਾਰ ਕੰਮ ਕਰਦੇ ਹਨ, ਲੋਕ ਵਾਪਸ ਆਉਂਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਹੋਰ ਸ਼੍ਰੇਣੀਆਂ ਲਈ ਖੋਜ ਦੀ ਆਦਤ ਵਧਦੀ ਹੈ ਅਤੇ ਸਿਸਟਮ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਵਾਲੇ ਫੀਡਬੈਕ ਮਿਲਦੇ ਹਨ।
Search ads ਇੱਕ ਰੀਅਲ-ਟਾਈਮ ਨਿਲਾਮੀ ਵਾਂਗ ਕੰਮ ਕਰਦੇ ਹਨ: ਹਰ ਵਿਗਿਆਪਨਦਾਤਾ ਸਭ ਤੋਂ ਜ਼ਿਆਦਾ ਭਰਿਆ ਗਿਆ ਬਿੜ (max bid) ਘੋਸ਼ਿਤ ਕਰਦਾ ਹੈ, ਪਰ ਜਿੱਤ ਸਿਰਫ਼ ਉੱਚ ਬਿੜ ਨਾਲ ਨਹੀਂ ਹੁੰਦੀ।
Google quality ਅਤੇ relevance ਸਿਗਨਲ ਵੀ ਦੇਖਦਾ ਹੈ—ਜੇ ਤੁਹਾਡਾ ad ਅਤੇ landing page query ਨਾਲ ਚੰਗੀ ਤਰ੍ਹਾਂ ਮਿਲਦੇ ਹਨ ਅਤੇ ਲੋਕ ਕਲਿੱਕ ਕਰ ਕੇ ਆਪਣੀ ਜ਼ਰੂਰਤ ਪੂਰੀ ਕਰ ਲੈਂਦੇ ਹਨ, ਤਾਂ ਤੁਸੀਂ ਅਕਸਰ ਬੁਰੀ ਮੈਚ ਵਾਲੇ ਉੱਚ ਬਿਡਰ ਨੂੰ ਹਰਾ ਸਕਦੇ ਹੋ। ਇਹ ਪ੍ਰਣਾਲੀ ਉਪਯੋਗਿਤਾ ਵੱਲ ਧੱਕਦੀ ਹੈ: ਸਿਰਫ਼ ਪੈਸੇ ਨਾਲ ਮਾੜੇ ਨਤੀਜੇ ਖਰੀਦਨਾ ਲੰਬੇ ਸਮੇਂ ਤੱਕ ਕੰਮ ਨਹੀਂ ਕਰਦਾ।
PPC (pay-per-click) ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਤੁਸੀਂ ਅਦਾਇਗੀ ਉਸ ਵੇਲੇ ਕਰਦੇ ਹੋ ਜਦੋਂ ਕਿਸੇ ਨੇ ਕਲਿੱਕ ਕੀਤਾ—ਿਖਦੀਂ ਇੰਪ੍ਰੈਸ਼ਨ ਲਈ ਨਹੀਂ। ਇਸ ਨਾਲ ਖ਼ਰਚ ਨਤੀਜਿਆਂ ਨਾਲ ਜੁੜ ਜਾਂਦਾ ਹੈ: ਛੋਟਾ ਵਿਅਵਸਾਯ ਘੱਟ ਬਜਟ ਨਾਲ ਟੈਸਟ ਕਰ ਸਕਦਾ ਹੈ, ਕੁੰਜੀ ਸ਼ਬਦਾਂ ਨੂੰ ਅਜ਼ਮਾ ਸਕਦਾ ਹੈ, ਅਤੇ ਗੈਰ-ਕਮਾਈ ਵਾਲੇ ਸ਼ਬਦਾਂ 'ਤੇ ਖਰਚ ਰਕਮ ਰੋਕ ਸਕਦਾ ਹੈ।
AdSense ਨੇ Google ਦੀ advertiser demand ਨੂੰ ਵੈੱਬ ਉੱਤੇ ਹਰ ਕਿਸੇ ਲਈ ਵਰਤੋਂਯੋਗ ਬਣਾਇਆ। ਇੱਕ ਛੋਟੀ بلاਗ ਜਾਂ ਨਿਸ਼ ਫੋਰਮ ਕਿਸੇ ਵੀ ਵੈੱਬਸਾਈਟ ਤੇ ਕੋਡ ਪੇਸਟ ਕਰਕੇ ਉਹੀ ਵਿਗਿਆਪਨ ਦਿਖਾ ਸਕਦੀ ਸੀ ਜੋ Search 'ਤੇ ਆਉਂਦੇ ਸਨ—ਬਿਨਾਂ ਸਿੱਧੇ ਸੇਲਜ਼ ਟੀਮ ਦੇ।
ਇਸ ਦਾ ਨਤੀਜਾ ਇੱਕ ਸਾਂਝੀ ਪ੍ਰੇਰਣਾ ਲੂਪ ਸੀ:
ਪਰ ਇਹ trade-offs ਵੀ ਲਿਆਇਆ: ਕਲਿੱਕਾਂ ਅਤੇ ਇੰਪ੍ਰੈਸ਼ਨਾਂ ਨਾਲ ਆਮਦਨੀ ਜੁੜਨ ਨਾਲ publishers ਨੂੰ ਵੋਲਿਊਮ 'ਤੇ ਧਾਵਾ ਕਰਨ ਦਾ ਦਬਾਅ ਮਿਲਿਆ—ਕਈ ਵਾਰ ਗੁਣਵੱਤਾ ਦੀ ਕਮੀ ਹੋਣੀ ਪਈ।
Android ਅਤੇ Chrome defaults ਤੇ ਬੂੰਦਲਿੰਗ ਰਾਹੀਂ friction ਘਟਾਉਂਦੇ ਹਨ—ਪਹਿਲਾ ਖੋਜ ਬਾਕਸ ਜ਼ਿਆਦਾਤਰ ਲੋਕਾਂ ਨੂੰ ਡਿਵਾਈਸ ਅਨੁਭਵ ਵਿੱਚ ਨੇੜੇ ਮਿਲਦਾ ਹੈ। ਪ੍ਰੀ-ਇੰਸਟਾਲ ਕੀਤੀਆਂ ਐਪਾਂ, ਹੋਮ-ਸਕ੍ਰੀਨ ਵਿਡਜਟਾਂ ਅਤੇ ਡਿਫ਼ੌਲਟ ਸੈਟਿੰਗਾਂ Search ਨੂੰ ਇੱਕ ਹੱਥ-ਦੋਸਤ ਰਸਤਾ ਬਣਾਉਂਦੀਆਂ ਹਨ।
Chrome ਵੀ ਤੇਜ਼ੀ, ਸੁਰੱਖਿਆ ਅਤੇ ਕੁਝ APIs ਪ੍ਰਾਥਮਿਕਤਾ ਦੇ ਕੇ ਇਹ ਪ੍ਰਭਾਵ ਪੈਦਾ ਕਰਦਾ ਹੈ—ਜਿਹੜਾ ਇਹ ਦਰਸਾਂਦਾ ਹੈ ਕਿ ਕੰਨੜਾਂ ਕਿਹੜੇ ਤਰੀਕੇ 'ਤੇ ਬਣਾਉਣਗੇ ਅਤੇ ਭਲਕੇ “ਚੰਗੇ” ਵੈੱਬ ਅਨੁਭਵ ਕੀ ਹਨ।
AI ਨੂੰ ਉੱਚ ਸਥਾਨ 'ਤੇ ਲਿਆਉਂਦੀਆਂ ਸੰਖਿਅਤ ਜਵਾਬ-ਮੁਹੱਈਆ ਭਾਰੀਆਂ ਖੋਜਾਂ ਕਈ ਵਾਰੀ ਕਲਿੱਕ ਬਿਨਾਂ ਹੀ ਜਵਾਬ ਦੇ ਸਕਦੀਆਂ ਹਨ। ਇਸ ਨਾਲ publishers ਨੂੰ ਟ੍ਰੈਫਿਕ ਘਟਣ ਦਾ ਖਤਰਾ ਬਣਦਾ ਹੈ ਅਤੇ ਵੈੱਬ → ਸਾਈਟ → ਮੋਨੇਟਾਈਜ਼ੇਸ਼ਨ ਦੀ ਪੁਰਾਣੀ ਚੇਨ ਕਮਜ਼ੋਰ ਹੋ ਸਕਦੀ ਹੈ।
ਨਿਯਮ-ਕੜੀਆਂ (defaults, privacy, transparency) ਨਾਲ ਮਿਲ ਕੇ ਇਹ incentives ਨੂੰ ਬਦਲ ਸਕਦਾ ਹੈ—ਵਪਾਰਾਂ ਲਈ ਮਹੱਤਵ ਦੇਣ ਵਾਲਾ ਸੰਦੇਸ਼ ਹੈ: ਖੋਜ 'ਤੇ ਨਿਰਭਰਤਾ ਛੱਡੋ ਤੇ acquisition ਨੂੰ ਡਾਇਵਰਸੀਫਾਈ ਕਰੋ।