ਸੈਮ ਆਲਟਮੈਨ ਦੀ OpenAI ਵਿੱਚ ਭੂਮਿਕਾ ਦਾ ਸਪੱਸ਼ਟ ਨਜ਼ਾਰਾ — ਸ਼ੁਰੂਆਤੀ ਚੋਣਾਂ, ਉਤਪਾਦੀ ਫੈਸਲੇ, ਭਾਈਚਾਰੇ, ਸੁਰੱਖਿਆ ਦੀਆਂ ਚਰਚਾਵਾਂ ਅਤੇ ਇਸ ਦੇ ਨੇਤ੍ਰਿਤਵ ਨੇ AI ਲਈ ਕੀ ਸੰਕੇਤ ਦਿੱਤੇ।

ਸੈਮ ਆਲਟਮੈਨ AI ਗੱਲਬਾਤ ਵਿੱਚ ਇੱਕ ਸਧਾਰਨ ਕਾਰਨ ਲਈ ਪਛਾਣਯੋਗ ਹੈ: ਉਹ ਇਕ ਐਸੀ ਸੰਸਥਾ ਦਾ ਜਨਤਕ ਓਪਰੇਟਰ ਬਣ ਗਿਆ ਜੋ frontier AI ਰਿਸਰਚ ਨੂੰ ਵਿਸ਼ਵ ਪੱਧਰ 'ਤੇ ਵਰਤੇ ਜਾਂਦੇ ਉਤਪਾਦਾਂ ਵਿੱਚ ਬਦਲ ਸਕਦੀ ਸੀ। ਬਹੁਤ ਲੋਕ "ChatGPT" ਦਾ ਨਾਮ ਲੈ ਸਕਦੇ ਹਨ, ਪਰ ਘੱਟ ਹੀ ਲੋਕ ਓਹ ਖੋਜਕਾਰਾਂ ਦੇ ਨਾਮ ਲੈ ਸਕਦੇ ਹਨ—ਅਤੇ ਇਹ ਵਿਸ਼ਅਲਤਾ ਦਾ ਫਰਕ CEO ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਦਾ ਹੈ ਜੋ ਤਕਨੀਕ ਨੂੰ ਸਮਝਾ, ਫੰਡ ਕਰ ਅਤੇ ਸ਼ਿਪ ਕਰ ਸਕਦਾ ਹੈ।
ਇਹ ਲੇਖ ਆਲਟਮੈਨ ਦੇ ਜਨਰੇਟਿਵ AI ਬੂਮ 'ਤੇ ਪ੍ਰਭਾਵ ਨੂੰ ਦੇਖਦਾ ਹੈ ਬਿਨਾਂ ਇਹ ਮੰਨਣ ਦੇ ਕਿ ਉਹ ਇਕੱਲਾ ਚਲਾਉਣ ਵਾਲਾ ਹੈ। ਆਧੁਨਿਕ ਲਹਿਰ ਦਹਾਕਿਆਂ ਦੀ ਸ਼ੋਧ, ਖੁੱਲ੍ਹੇ ਰਿਸਰਚ ਕਮਿਊਨਿਟੀਆਂ ਅਤੇ ਉਦਯੋਗ 'ਚ ਵੱਡੇ ਇੰਫ੍ਰਾਸਟਰੱਕਚਰ ਬੇਟਸ ਨਾਲ ਚੱਲੀ। ਆਲਟਮੈਨ ਦੀ ਭੂਮਿਕਾ ਸਭ ਤੋਂ ਵਧੀਆ ਤਰ੍ਹਾਂ ਸਮਝੀ ਜਾ ਸਕਦੀ ਹੈ ਇੱਕ ਰਣਨੀਤੀ, ਕਹਾਣੀ ਕਹਿਣਾ, ਭਾਈਚਾਰਿਆਂ ਅਤੇ ਫੈਸਲਾ-ਲੈਣ ਦੀ ਮਿਲੀ-ਜੁਲੀ ਭੂਮਿਕਾ ਵਜੋਂ ਜਿਸ ਨੇ OpenAI ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਜਨਤਕ ਅਪਣਾ ਨੁਸਖਾ ਪਹੁੰਚਾਉਣ ਵਿੱਚ ਮਦਦ ਕੀਤੀ।
ਛੋਟੀ ਸਮੇਂ-ਰੂਪ ਸਮਝਾਉਂਦੀ ਹੈ ਕਿ ਉਸਦਾ ਨਾਮ ਕਿਉਂ ਮੁੜ-ਮੁੜ ਸਾਹਮਣੇ ਆਉਂਦਾ ਹੈ:
OpenAI: ਐਕੋਈ AI ਰਿਸਰਚ ਅਤੇ ਉਤਪਾਦ ਸੰਸਥਾ ਜੋ GPT ਜਿਹੇ ਮਾਡਲ ਅਤੇ ChatGPT ਵਰਗੇ ਉਤਪਾਦਾਂ ਲਈ ਪਛਾਣੀ ਜਾਂਦੀ ਹੈ।
ਜਨਰੇਟਿਵ AI: ਅਜਿਹੇ AI ਸਿਸਟਮ ਜੋ ਡਾਟਾ ਤੋਂ ਸਿੱਖੇ ਪੈਟਰਨਾਂ ਦੇ ਆਧਾਰ 'ਤੇ ਨਵੀਂ ਸਮਗਰੀ—ਲਿਖਤ, ਚਿੱਤਰ, ਕੋਡ, ਆਡੀਓ—ਤਿਆਰ ਕਰਦੇ ਹਨ।
ਫাউਂਡੇਸ਼ਨ ਮਾਡਲ: ਬਹੁਤ ਵੱਡੇ, ਸਭ-ਉਦੇਸ਼ מਾਡਲ ਜੋ ਵਿਸ਼ਾਲ ਡੇਟਾ 'ਤੇ ਟ੍ਰੇਨ ਕੀਤੇ ਜਾਂਦੇ ਹਨ ਅਤੇ ਕਈ ਟਾਸਕਾਂ ਲਈ ਅਨੁਕੂਲ ਕੀਤੇ ਜਾ ਸਕਦੇ ਹਨ (ਅਕਸਰ ਪ੍ਰಾಂਪਟ, ਫਾਈਨ-ਟਿਊਨਿੰਗ ਜਾਂ ਟੂਲਸ ਨਾਲ)।
ਆਲਟਮੈਨ ਤਿੰਨੋਂ ਦੇ ਮਿਲਾਪ 'ਤੇ ਬੈਠਦਾ ਹੈ: ਉਹ OpenAI ਨੂੰ ਜਨਤਕ ਤੌਰ 'ਤੇ ਪ੍ਰਤਿਨਿਧਿਤ ਕਰਦਾ ਹੈ, ਜਨਰੇਟਿਵ AI ਨੂੰ ਲੈਬ ਨਤੀਜਿਆਂ ਤੋਂ ਰੋਜ਼ਮਰ੍ਹਾ ਟੂਲਾਂ ਤੱਕ ਲੈ ਕੇ ਆਉਣ ਵਿੱਚ ਮਦਦ ਕੀਤੀ, ਅਤੇ ਫਾਇਰਡ ਮਾਡਲ ਚਲਾਉਣ ਲਈ ਲੋੜੀਂਦਾ ਫੰਡ ਅਤੇ ਸਕੇਲ ਕਰਨ ਵਿੱਚ ਕੇਂਦਰੀ ਰਿਹਾ।
ਸੈਮ ਆਲਟਮੈਨ AI ਖੋਜ 'ਚ ਸ਼ੁਰੂਆਤ ਨਹੀਂ ਕੀਤੀ—ਉਸਨੇ ਸਟਾਰਟਅਪ ਬਣਾਉਣ ਅਤੇ ਫੰਡ ਕਰਨ ਦੇ ਗੰਦੇ-ਚੰਗੇ ਜਗ੍ਹਾ ਵਿੱਚ ਸ਼ੁਰੂ ਕੀਤਾ। ਉਸਨੇ Loopt ਦੀ ਸਥਾਪਨਾ ਕੀਤੀ, ਇੱਕ ਲੋਕੇਸ਼ਨ-ਅਧਾਰਤ ਸੋਸ਼ਲ ਐਪ, ਅਤੇ ਬਾਅਦ ਵਿੱਚ 2012 ਵਿੱਚ Green Dot ਨੂੰ ਵੇਚ ਦਿੱਤੀ। ਉਹ ਪਹਿਲਾ ਅਨੁਭਵ—ਉਤਪਾਦ ਸ਼ਿਪ ਕਰਨਾ, ਅਪਣਾਉਣ ਦੀ ਪਿੱਛਾ ਕਰਨਾ, ਅਤੇ ਕਠੋਰ ਸੀਮਾਵਾਂ ਨਾਲ ਰਹਿਣਾ—ਫਿੱਲਹਾਲ ਇਸ ਗੱਲ ਦੀ ਪ੍ਰਾਇਗਤਿ ਬਣ ਗਿਆ ਕਿ ਕਿਵੇਂ ਉਹ ਬਾਦ ਵਿੱਚ ਮਹਾਨ ਤਕਨੀਕ ਨੂੰ ਲੋਕ ਵਾਸਤੇ ਕਾਰਜਕਾਰੀ ਬਣਾਉਣ ਬਾਰੇ ਗੱਲ ਕਰਦਾ।
ਆਲਟਮੈਨ Y Combinator ਦਾ ਭਾਗ ਬਣਿਆ ਅਤੇ ਫਿਰ ਇਸਦਾ ਪ੍ਰੈਜ਼ੀਡੈਂਟ ਹੋਇਆ, ਜਿੱਥੇ ਉਸਨੇ ਵੱਖ-ਵੱਖ ਸ਼ੁਰੂਆਤੀ ਕੰਪਨੀਆਂ ਨਾਲ ਕੰਮ ਕੀਤਾ। YC ਮਾਡਲ product-market fit ਦਾ ਇਕ ਤਿੱਖਾ ਕੋਰਸ ਹੈ: ਤੇਜ਼ੀ ਨਾਲ ਬਣਾਓ, ਉਪਭੋਗਤਿਆਂ ਦੀ ਸੁਣੋ, ਉਹ ਮਾਪੋ ਜੋ ਮਾਇਨੇ ਰੱਖਦਾ ਹੈ, ਅਤੇ ਪਹਿਲੇ ਵਿਚਾਰ ਨਾਲ ਜੁੜੇ ਨਾ ਰਹੋ।
ਲੀਡਰਾਂ ਲਈ, ਇਹ ਪੈਟਰਨ ਪਛਾਣ ਬਣਾਉਂਦਾ ਹੈ। ਤੁਸੀਂ ਦੇਖਦੇ ਹੋ ਕਿ ਕੁਝ ਉਤਪਾਦ ਕਿਉਂ ਫੈਲਦੇ ਹਨ (ਸਧਾਰਣ ਆਨਬੋਰਡਿੰਗ, ਸਪਸ਼ਟ ਮੁੱਲ, ਮਜ਼ਬੂਤ ਵੰਡ) ਅਤੇ ਹੋਰ ਕਿਉਂ ਰੁਕ ਜਾਂਦੇ ਹਨ (ਅਸਪਸ਼ਟ ਦਰਸ਼ਕ, ਧੀਮਾ ਦੁਹਰਾਓ, ਮਾਰਕੀਟ ਵਿੱਚ ਦਾਖਲਾ ਨਹੀਂ)। ਇਹ ਸਬਕ frontier ਟੈਕਨਾਲੋਜੀ 'ਤੇ ਵੀ ਅਚਾਨਕ ਤੌਰ 'ਤੇ ਲਾਗੂ ਹੁੰਦੇ ਹਨ: ਬ੍ਰੇਕਥਰੂ ਸਮਰੱਥਾਵਾਂ ਨਾਲ ਸਵੈਚਲਿਤ ਅਪਣਾਉਣ ਨਹੀਂ ਆਉਂਦੀ।
YC ਇੱਕ ਓਪਰੇਟਰ ਦਾ ਨਜ਼ਰੀਆ ਵੀ ਮਜ਼ਬੂਤ ਕਰਦਾ ਹੈ: ਵਧੀਆ ਵਿਚਾਰ ਅਕਸਰ ਸਰੀਖੇ ਸ਼ੁਰੂ ਹੁੰਦੇ ਹਨ, ਫਿਰ ਫੈਲਦੇ ਹਨ; ਵਿਕਾਸ ਲਈ ਇੰਫ੍ਰਾਸਟਰੱਕਚਰ ਲੋੜੀਂਦਾ ਹੈ; ਅਤੇ ਸਮਾਂ originality ਜਿੰਨਾ ਹੀ ਮਹੱਤਵਪੂਰਨ ਹੁੰਦਾ ਹੈ। ਆਲਟਮੈਨ ਦਾ ਬਾਅਦ ਦਾ ਕੰਮ—ਉਮੀਦਵਾਰ ਕੰਪਨੀਆਂ ਵਿੱਚ ਨਿਵੇਸ਼ ਅਤੇ OpenAI ਨੂੰ ਲੀਡ ਕਰਨਾ—ਉਸ ਪੱਖ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ ਜੋ ਵੱਡੇ ਤਕਨੀਕੀ ਬੇਟਸ ਨੂੰ عملي ਅਮਲ ਨਾਲ ਜੋੜਦਾ ਹੈ।
ਉਸਦਾ ਸਟਾਰਟਅਪ ਪਿਛੋਕੜ ਇੱਕ ਕਹਾਣੀ ਕਹਿਣ ਦੀ ਮਹਾਰਤ ਵੀ ਨਿਸ਼ਾਨਾ ਬਣਾਉਂਦਾ ਹੈ: ਇਕ ਜਟਿਲ ਭਵਿਖ ਨੂੰ ਸਧਾਰਨ ਸ਼ਬਦਾਂ ਵਿੱਚ ਸਮਝਾਓ, ਟੈਲੰਟ ਅਤੇ ਰਾਜਧਾਨੀ ਖਿੱਚੋ, ਅਤੇ ਉਤਪਾਦ ਨੂੰ ਉਹਦੇ ਵਾਅਦੇ ਤੱਕ ਲਿਜਾਣ ਦੌਰਾਨ ਗਤੀ ਬਰਕਰਾਰ ਰੱਖੋ।
OpenAI ਦਾ ਸ਼ੁਰੂਆਤੀ ਜਨਤਕ ਮਿਸ਼ਨ ਆਸਾਨ ਸੀ ਪਰ ਲਾਗੂ ਕਰਨਾ ਮুশਕਲ: ਸਭ ਲਈ ਲਾਭਦਾਇਕ artificial general intelligence ਤਿਆਰ ਕਰੋ। "ਸਭ ਲਈ ਲਾਭਦਾਇਕ" ਕਲਾਜ਼ ਨੇ ਤਕਨੀਕ ਵਾਂਗ ਹੀ ਮਹੱਤਵ ਪਾਇਆ—ਇਹ ਸੁਝਾਇਆ ਕਿ AI ਨੂੰ ਸਿਰਫ਼ ਮੁਕਾਬਲੇ ਦੇ ਫਾਇਦੇ ਵਜੋਂ ਨਹੀਂ, ਬਲਕਿ ਨਿੱਜੀ-ਰੁਚੀ ਵਾਲੇ ਢਾਂਚੇ ਵਜੋਂ ਦੇਖਿਆ ਜਾਵੇ।
ਇਹੋ ਜਿਹੀ ਮਿਸ਼ਨ ਭਾਈਚਾਰੇ ਵਿਭਿੰਨ ਚੋਣਾਂ ਨੂੰ ਜਨਮੇਦਾ ਹੈ ਜੋ ਮਾਡਲ ਗੁਣਵੱਤਾ ਤੋਂ ਅੱਗੇ ਹਨ। ਇਹ ਸਵਾਲ ਖੜੇ ਕਰਦਾ ਹੈ ਕਿ ਕੌਣ ਪ੍ਰਵਾਨਗੀ ਪਾਏਗਾ, ਨੁਕਸਾਨ ਨੂੰ ਕਿਵੇਂ ਰੋਕਿਆ ਜਾਵੇ, ਅਤੇ ਕਿਸ ਤਰ੍ਹਾਂ ਤਰੱਕੀਆਂ ਨੂੰ ਸਾਂਝਾ ਕੀਤਾ ਜਾਵੇ ਤਾਂ ਜੋ ਗਲਤ ਉਦੇਸ਼ਾਂ ਲਈ ਉਪਯੋਗ ਨਾ ਹੋਣ। ਉਤਪਾਦ ਤੋਂ ਪਹਿਲਾਂ ਮਿਸ਼ਨ ਭਾਸ਼ਾ ਉਮੀਦਾਂ ਸੈੱਟ ਕਰਦੀ ਹੈ: OpenAI ਕੇਵਲ ਬੈਂਚਮਾਰਕ ਜਿੱਤਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਨਹੀਂ ਕਰ ਰਿਹਾ ਸੀ; ਉਹ ਇੱਕ ਨਿਰਧਾਰਤ ਸਮਾਜਕ ਨਤੀਜੇ ਦਾ ਵਾਅਦਾ ਵੀ ਕਰ ਰਿਹਾ ਸੀ।
ਸੈਮ ਆਲਟਮੈਨ ਦਾ CEO ਹੋਣ ਦਾ ਰੋਲ ਮਾਡਲਾਂ ਨੂੰ ਨਿੱਜੀ ਤੌਰ 'ਤੇ ਖੋਜਣਾ ਨਹੀਂ ਸੀ। ਉਸ ਦੀ ਲੈਵਰੇਜ ਇਹ ਸੀ:
ਇਹ ਕਾਰੋਬਾਰੀ ਹੁਣੇ ਹੀ ਨਹੀਂ, ਗਵਰਨੈਂਸ ਵਾਲੇ ਫੈਸਲੇ ਵੀ ਹਨ, ਅਤੇ ਇਹ ਮਿਸ਼ਨ ਨੂੰ ਦੈਨਦਿਨ ਦੇ ਕੰਮ ਵਿੱਚ ਬਦਲਣ ਦਾ ਤਰੀਕਾ ਨਿਰਧਾਰਤ ਕਰਦੇ ਹਨ।
ਇੱਕ ਅੰਦਰੂਨੀ ਤਣਾਅ ਹੁੰਦਾ ਹੈ: ਖੋਜੀ ਗਰੁੱਪ ਖੁੱਲ੍ਹਤ, ਸਮਾਂ ਅਤੇ ਧੀਰਜ ਚਾਹੁੰਦੇ ਹਨ; ਅਸਲ ਦੁਨੀਆ ਡਿਪਲੋਇਮੈਂਟ ਤੇਜ਼ੀ, ਭਰੋਸਯੋਗਤਾ ਅਤੇ ਉਪਭੋਗਤਾ ਫੀਡਬੈਕ ਮੰਗਦਾ ਹੈ। ChatGPT ਵਰਗਾ ਸਿਸਟਮ ਸ਼ਿਪ ਕਰਨਾ abstract ਖ਼ਤਰਿਆਂ ਨੂੰ ਓਪਰੇਸ਼ਨਲ ਕੰਮ ਵਿੱਚ ਬਦਲ ਦਿੰਦਾ ਹੈ—ਪਾਲੀਸੀ, ਮਾਨੀਟਰਿੰਗ, ਘਟਨਾ-ਜਵਾਬ, ਅਤੇ ਲਗਾਤਾਰ ਮਾਡਲ ਅੱਪਡੇਟ।
ਮਿਸ਼ਨ ਬਿਆਨ ਸਿਰਫ਼ PR ਨਹੀਂ ਹੁੰਦੇ। ਉਹ ਇੱਕ ਮਿਆਰ ਬਣਾਉਂਦੇ ਹਨ ਜਿਸ ਨਾਲ ਜਨਤਾ ਫੈਸਲਿਆਂ ਨੂੰ ਅੰਕ ਹੋਂਦ ਦਿੰਦੀ ਹੈ। ਜਦ ਕਾਰਵਾਈਆਂ "ਸਭ ਲਈ ਲਾਭ" ਨਾਲ ਮਿਲਦੀਆਂ ਹਨ, ਭਰੋਸਾ ਬੈਠਦਾ ਹੈ; ਜਦ ਫੈਸਲੇ ਲਾਭ-ਪਹਿਲਤ ਜਾਂ ਅਪਾਰਦਰਸ਼ੀ ਲੱਗਦੇ ਹਨ, ਸ਼ੱਕ ਵੱਧ ਜਾਂਦਾ ਹੈ। ਆਲਟਮੈਨ ਦੀ ਨੇਤ੍ਰਿਤਵ ਅਕਸਰ ਉਨ੍ਹਾਂ ਦੋਹਾਂ ਵਿੱਚ ਖਰਾ ਫਰਕ ਦੇਖ ਕੇ ਮੂਲਾਂਕਣ ਕੀਤੀ ਜਾਂਦੀ ਹੈ।
OpenAI ਦੇ ਕੰਮ ਦੇ ਲੈਬ ਤੋਂ ਬਾਹਰ ਫੈਲਣ ਦਾ ਇੱਕ ਮੁੱਖ ਕਾਰਨ ਇਹ ਹੌ ਕਿ ਇਸਨੇ ਕਾਗਜ਼ਾਂ ਅਤੇ ਬੈਂਚਮਾਰਕਾਂ 'ਚ ਹੀ ਨਹੀਂ ਰਿਹਾ। ਅਸਲ ਉਤਪਾਦ ਸ਼ਿਪ ਕਰਨਾ abstract ਸਮਰੱਥਾ ਨੂੰ ਇਕ ਐਸੀ ਚੀਜ਼ ਬਣਾਉਂਦਾ ਹੈ ਜਿਸ ਨੂੰ ਲੋਕ ਪਰਖ ਸਕਦੇ, ਆਲੋਚਨਾ ਕਰ ਸਕਦੇ, ਅਤੇ ਭਰੋਸਾ ਕਰ ਸਕਦੇ ਹਨ—ਅਤੇ ਇਹ ਇੱਕ ਫੀਡਬੈਕ ਲੂਪ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜੋ ਕੋਈ ਖੋਜ ਪ੍ਰੋਗਰਾਮ ਅਕਸਰ ਨਕਲ ਨਹੀਂ ਕਰ ਸਕਦਾ।
ਜਦੋਂ ਕੋਈ ਮਾਡਲ ਜਨਤਕ ਦੀ ਮਿਲਣਾ ਜਾਂਦਾ ਹੈ, "ਅਣਜਾਣ-ਅਣਜਾਣ" ਤੇਜ਼ੀ ਨਾਲ ਸਾਹਮਣੇ ਆਉਂਦੇ ਹਨ: ਗੁੰਝਲਦਾਰ ਪ੍ਰਾਂਪਟ, ਅਪੇक्षित ਫੇਲ੍ਹ-ਮੋਡ, ਗਲਤ ਵਰਤੋਂ ਦੇ ਪੈਟਰਨ, ਅਤੇ ਸਧਾਰਨ UX ਰੁਕਾਵਟ। ਉਤਪਾਦ ਰਿਲੀਜ਼ਾਂ ਇਹ ਵੀ ਦਰਸਾਉਂਦੀਆਂ ਹਨ ਕਿ ਵਰਤੋਂਕਾਰ ਅਸਲ ਵਿੱਚ ਕੀ ਮੂਲ ਮਹਿਸੂਸ ਕਰਦੇ ਹਨ (ਗਤੀ, ਭਰੋਸਾ, ਟੋਨ, ਲਾਗਤ) — ਨਾਂ ਕਿ ਖੋਜਕਾਰ ਜੋ ਮੰਨਦੇ ਹਨ ਕਿ ਉਹ ਕੀ ਮਹੱਤਵ ਦੇਣਗੇ।
ਉਹ ਫੀਡਬੈਕ ਮਾਡਲ ਵਤੀਰਣ ਤੋਂ ਲੈ ਕੇ ਮਾਡਲ ਵਿਹਾਰ, ਮੋਡਰੇਸ਼ਨ ਸਿਸਟਮ, ਵਰਤੋਂ ਨੀਤੀਆਂ, ਅਤੇ ਡਿਵੈਲਪਰ ਦਸਤਾਵੇਜ਼ਾਂ ਤਕ ਹਰ ਚੀਜ਼ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰਦਾ ਹੈ। ਅਸਲ ਵਿੱਚ, ਉਤਪਾਦਕਾਰੀ ਕੰਮ ਪੈਮਾਨੇ 'ਤੇ ਲਾਗੂ ਮੂਲਿਆੰਕਨ ਦਾ ਰੂਪ ਲੈ ਲੈਂਦਾ ਹੈ।
ਮਜ਼ਬੂਤ ਤਕਨੀਕ ਨੂੰ ਪਰਿਚਿਤ ਇੰਟਰਫੇਸ ਵਿੱਚ ਪੈਕ ਕਰਨ ਦਾ ਇੱਕ ਕੀ ਸਟੈਪ ਹੈ। ਇੱਕ ਚੈਟ ਬਾਕਸ, ਸਾਫ਼ ਉਦਾਹਰਣ ਅਤੇ ਘੱਟ ਸੈਟਅਪ ਲਾਗਤ ਗੈਰ-ਟੈਕਨੀਕੀ ਵਰਤੋਂਕਾਰਾਂ ਨੂੰ ਮੁੱਲ ਤੁਰੰਤ ਸਮਝਣ ਦੇ ਯੋਗ ਬਣਾਂਦੇ ਹਨ। ਤੁਹਾਨੂੰ ਨਵਾਂ ਵਰਕਫਲੋ ਸਿੱਖਣ ਦੀ ਲੋੜ ਨਹੀਂ—ਤੁਸੀਂ ਸਿਰਫ ਪੁੱਛਦੇ ਹੋ।
ਇਹ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿਉਂਕਿ ਜਾਗਰੂਕਤਾ ਸਮਾਜਿਕ ਤੌਰ 'ਤੇ ਫੈਲਦੀ ਹੈ। ਜਦ ਇੰਟਰਫੇਸ ਸਧਾਰਣ ਹੁੰਦਾ ਹੈ, ਲੋਕ ਪ੍ਰਾਂਪਟ, ਸਕ੍ਰੀਨਸ਼ਾਟ ਅਤੇ ਨਤੀਜੇ ਸਾਂਝੇ ਕਰ ਸਕਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਜਿਗਿਆਸਾ ਪ੍ਰਯੋਗ ਵਿੱਚ ਬਦਲ ਜਾਂਦੀ ਹੈ। ਪ੍ਰਯੋਗ ਫਿਰ ਹੋਰ ਸਮਰੱਥਾ ਲਈਦਮਾਂਗ ਬਣ ਜਾਂਦਾ ਹੈ—ਵਧੀਆ ਸਹੀਤਾ, ਲੰਮਾ ਸੰਦਰਭ, ਤੇਜ਼ ਜਵਾਬ, ਸਾਫ਼ ਹਵਾਲੇ, ਅਤੇ ਕਸਨਟਰੋਲ।
ਇਹੀ ਪੈਟਰਨ "vibe-coding" ਟੂਲਾਂ ਵਿੱਚ ਵੀ ਨਜਰ ਆ ਰਹੀ ਹੈ: ਇੱਕ ਸੰਵਾਦਾਤਮਕ ਇੰਟਰਫੇਸ ਸਾਫਟਵੇਅਰ ਬਣਾਉਣਾ ਉਸੇ ਹੀ ਤਰ੍ਹਾਂ ਪਹੁੰਚਯੋਗ ਬਣਾਉਂਦਾ ਹੈ ਜਿਵੇਂ ਕਿ ਬੇਨਤੀ ਕਰਨੀ। ਪਲੇਟਫਾਰਮਾਂ ਜਿਵੇਂ Koder.ai ਇਸ ਉਤਪਾਦ ਸਬਕ ਵਿੱਚ ਤੁਰਦਾ ਹਨ, ਉਪਭੋਗਤਿਆਂ ਨੂੰ ਚੈਟ ਰਾਹੀਂ ਵੈੱਬ, ਬੈਕਐਂਡ, ਅਤੇ ਮੋਬਾਈਲ ਐਪ ਬਣਾਉਣ ਦਿੰਦੇ ਹਨ, ਹਾਲਾਂਕਿ ਅਸਲ-ਦੁਨੀਆ ਦੀਆਂ ਲੋੜਾਂ ਜਿਵੇਂ ਤੈਨਾਤੀ, ਹੋਸਟਿੰਗ, ਅਤੇ ਸੋਰਸ ਕੋਡ ਐਕਸਪੋਰਟ ਨੂੰ ਸਮਰਥਨ ਕਰਦੇ ਹਨ।
ਸ਼ੁਰੂਆਤੀ ਡੈਮੋ ਅਤੇ ਬੇਟਾ ਇਕ ਸਿੰਗਲ "ਪਰਫੈਕਟ" ਲਾਂਚ ਤੇ ਸਾਰਾ ਦਾਅ ਲਗਾਉਣ ਦੇ ਜੋਖਮ ਨੂੰ ਘਟਾਉਂਦੇ ਹਨ। ਤੇਜ਼ ਅੱਪਡੇਟ ਟੀਮ ਨੂੰ ਗੁੰਝਲਦਾਰ ਵਿਵਹਾਰ ਠੀਕ ਕਰਨ, ਸੁਰੱਖਿਆ ਸੀਮਾਵਾਂ ਨੂੰ ਢਾਲਨ, ਲੈਟੈਂਸੀ ਸੁਧਾਰਨ ਅਤੇ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਛੋਟੇ ਕਦਮਾਂ ਵਿੱਚ ਵਧਾਉਣ ਦਿੰਦੇ ਹਨ।
ਦੁਹਰਾਈ ਭਰੋਸਾ ਵੀ ਬਣਾਉਂਦੀ ਹੈ: ਵਰਤੋਂਕਾਰ ਤਰੱਕੀ ਵੇਖਦੇ ਹਨ ਅਤੇ ਸੁਣਿਆ ਮਹਿਸੂਸ ਕਰਦੇ ਹਨ, ਜੋ ਉਨ੍ਹਾਂ ਨੂੰ ਸ਼ਾਮਿਲ ਰੱਖਦਾ ਹੈ ਭਲੇ ਹੀ ਤਕਨੀਕ ਅਧੂਰੀ ਹੋਵੇ।
ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵੱਧਣਾ ਸਿੱਖਣ ਅਤੇ ਗਤੀ ਖੋਲ ਸਕਦਾ ਹੈ—ਪਰ ਜੇ ਸੁਰੱਖਿਆ ਅਪਣਾਉਣ ਦੇ ਪਿੱਛੇ ਰਹਿ ਜਾਵੇ ਤਾਂ ਨੁਕਸਾਨ ਵੀ ਵੱਧ ਸਕਦਾ ਹੈ। ਉਤਪਾਦ ਚੁਣੌਤੀ ਇਹ ਫੈਸਲਾ ਕਰਨਾ ਹੈ ਕਿ ਕੀ ਸੀਮਿਤ ਕਰਨਾ ਹੈ, ਕੀ ਰੋਕਣਾ ਹੈ, ਅਤੇ ਕੀ ਨਜ਼ਰ ਵਿੱਚ ਰੱਖ ਕੇ ਜਾਰੀ ਰੱਖਣਾ ਹੈ ਤਾਂ ਕਿ ਕਾਫ਼ੀ ਸਿੱਖਿਆ ਮਿਲੇ। ਇਹ ਸੰਤੁਲਨ ਆਧੁਨਿਕ AI ਨੂੰ ਖੋਜ ਤੋਂ ਰੋਜ਼ਾਨਾ ਟੂਲ ਬਣਾਉਣ ਵਿੱਚ ਕੇਂਦਰੀ ਹੈ।
ChatGPT ਇਸ ਲਈ ਸੱਭਿਆਚਾਰਕ ਘਟਨਾ ਨਹੀਂ ਬਣਿਆ ਕਿ ਲੋਕ ਅਚਾਨਕ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਪੇਪਰਾਂ ਵਿੱਚ ਦਿਲਚਸਪੀ ਲੈਣ ਲੱਗੇ; ਇਹ ਇਸ ਲਈ ਤਿਆਰ ਸੀ ਕਿਉਂਕਿ ਇਹ ਇੱਕ ਉਤਪਾਦ ਵਾਂਗ ਲੱਗਦਾ ਸੀ: ਇੱਕ ਸਵਾਲ ਲਿਖੋ, ਇੱਕ ਔਖਾ-ਜਵਾਬ ਪਾਉ, ਫਿਰ ਫਾਲੋ-ਅਪ ਨਾਲ ਸੁਧਾਰ ਕਰੋ। ਇਸ ਸਾਦਗੀ ਨੇ ਉਨ੍ਹਾਂ ਮਿਲੀਅਨਾਂ ਲਈ ਜਨਰੇਟਿਵ AI ਨੂੰ ਪਹੁੰਚਯੋਗ ਬਣਾਇਆ ਜੋ ਪਹਿਲਾਂ ਕਿਸੇ AI ਟੂਲ ਨੂੰ ਨਹੀਂ آزمਾਇਆ ਸੀ।
ਪਹਿਲਾਂ ਜ਼ਿਆਦਾਤਰ AI ਅਨੁਭਵ ਵਰਤੋਂਕਾਰਾਂ ਨੂੰ ਪ੍ਰਣਾਲੀ ਦੇ ਅਨੁਕੂਲ ਹੋਣ ਲਈ ਕਹਿੰਦੇ ਸਨ—ਖ਼ਾਸ ਇੰਟਰਫੇਸ, ਕਠੋਰ ਕਮਾਂਡਾਂ ਜਾਂ ਸੀਮਤ "ਸਕਿਲ"। ChatGPT ਨੇ ਇਸਨੂੰ ਉਲਟ ਦਿਖਾਇਆ: ਇੰਟਰਫੇਸ ਸਧਾਰਣ ਭਾਸ਼ਾ ਸੀ, ਪ੍ਰਤੀਕ੍ਰਿਆ ਤੁਰੰਤ ਸੀ, ਅਤੇ ਨਤੀਜੇ ਆਮਤੌਰ 'ਤੇ ਕਾਫ਼ੀ ਉਪਯੋਗੀ ਹੁੰਦੇ ਸਨ।
"ਇੱਕ ਟਾਸਕ ਲਈ AI" ਦੀ ਥਾਂ, ਇਸਨੇ ਇੱਕ ਆਮ ਸਹਾਇਕ ਵਰਤੋਂ ਕੀਤਾ ਜੋ ਸੰਕਲਪ ਸਮਝਾ ਸਕਦਾ, ਲਿਖਤ ਤਿਆਰ ਕਰ ਸਕਦਾ, ਸੰਖੇਪ ਕਰ ਸਕਦਾ, ਵਿਚਾਰ-ਛੈਣੀ ਕਰ ਸਕਦਾ ਅਤੇ ਕੋਡ ਡੀਬੱਗ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦਾ। UX ਨੇ ਰੁਕਾਵਟ ਇੰਨੀ ਘੱਟ ਕਰ ਦਿੱਤੀ ਕਿ ਉਤਪਾਦ ਦਾ ਮੁੱਲ ਇੱਕ ਦੋ-ਤੀਨ ਮਿੰਟਾਂ 'ਚ ਆਪ-ਪੈਦਾ ਹੋ ਗਿਆ।
ਜਦੋਂ ਲੋਕਾਂ ਨੇ ਇੱਕ ਸੰਵਾਦਾਤਮਕ ਪ੍ਰਣਾਲੀ ਨੂੰ ਲਿਖਤ ਜਾਂ ਚੱਲਦਾ ਕੋਡ ਪੈਦਾ ਕਰਦੇ ਵੇਖਿਆ, ਉਦਯੋਗਾਂ ਵਿੱਚ ਉਮੀਦਾਂ ਬਦਲ ਗਈਆਂ। ਟੀਮਾਂ ਨੇ ਪੁੱਛਣਾ ਸ਼ੁਰੂ ਕੀਤਾ: "ਸਾਡਾ ਸਾਫਟਵੇਅਰ ਇਹ ਕਿਉਂ ਨਹੀਂ ਕਰ ਸਕਦਾ?" ਗਾਹਕ ਸਹਾਇਤਾ, ਦਫ਼ਤਰੀ ਸੂਟ, ਖੋਜ, HR ਟੂਲ ਅਤੇ ਡਿਵੈਲਪਰ ਪਲੇਟਫਾਰਮਾਂ ਸਭ ਨੇ ਜਵਾਬ ਦੇਣਾ ਪਿਆ—ਜਾਂ ਤਾਂ ਜਨਰੇਟਿਵ ਫੀਚਰ ਜੋੜ ਕੇ, ਭਾਈਚਾਰੀ ਕਰਕੇ, ਜਾਂ ਇਹ ਸਪਸ਼ਟ ਕਰਕੇ ਕਿ ਉਹ ਕਿਉਂ ਨਹੀਂ ਕਰ ਰਹੇ।
ਇਹੀ ਕਾਰਨ ਹੈ ਕਿ ਜਨਰੇਟਿਵ AI ਬੂਮ ਨੇ ਤੇਜ਼ੀ ਨਾਲ ਗਤੀ پکੜੀ: ਇੱਕ ਵਿਸਤ੍ਰਿਤ ਇੰਟਰਫੇਸ ਨੇ ਇੱਕ ਅਬਸਟਰੈਕਟ ਸਮਰੱਥਾ ਨੂੰ ਮੂਲ-ਫੀਚਰ ਬਣਾਉ ਦਿੱਤਾ ਜਿਸਨੂੰ ਵਰਤੋਂਕਾਰ ਮੰਗਣ ਲੱਗੇ।
ਪ੍ਰਤਿਬੰਧ ਤੇਜ਼ੀ ਨਾਲ ਸਾਹਮਣੇ ਆਏ:
ਭਾਵੇਂ ਚੰਗੀ ਤਰ੍ਹਾਂ ਕੰਮ ਕਰੇ, ChatGPT ਕਈ ਵਾਰੀ ਭਰੋਸੇਯੋਗ ਤਰੀਕੇ ਨਾਲ ਗਲਤ ਹੋ ਸਕਦਾ ਹੈ, ਆਪਣੇ ਟ੍ਰੇਨਿੰਗ ਡੇਟਾ ਤੋਂ ਪੱਖਪਾਤ ਦਰਸਾ ਸਕਦਾ ਹੈ, ਅਤੇ ਸਪੈਮ, ਠੱਗੀ ਜਾਂ ਹਾਨਿਕਾਰਕ ਸਮਗਰੀ ਬਣਾਉਣ ਲਈ ਗਲਤ ਉਦੇਸ਼ਾਂ ਲਈ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਇਹ ਸਮੱਸਿਆਵਾਂ ਅਪਣਾਉਣ ਨੂੰ ਰੋਕਿਆ ਨਹੀਂ, ਪਰ ਗੱਲਬਾਤ ਨੂੰ "ਕੀ ਇਹ ਅਸਲੀ ਹੈ?" ਤੋਂ "ਅਸੀਂ ਇਸਨੂੰ ਸੁਰੱਖਿਅਤ ਤਰੀਕੇ ਨਾਲ ਕਿਵੇਂ ਵਰਤ ਸਕਦੇ ਹਾਂ?" ਵੱਲ ਲੈ ਗਈ—ਜੋ AI ਸੁਰੱਖਿਆ, ਗਵਰਨੈਂਸ, ਅਤੇ ਨਿਯਮਨ ਬਾਰੇ ਚਲਦੀਆਂ ਚਰਚਾਵਾਂ ਦੀ ਮੂਲ ਨੂੰ ਸੈੱਟ ਕਰਦਾ ਹੈ।
ਆਧੁਨਿਕ AI ਵਿੱਚ ਵੱਡੇ ਛਲਾਂਕੇ ਸਿਰਫ਼ ਚਤੁਰ الگੋਰਿਦਮ ਬਾਰੇ ਨਹੀਂ ਹਨ। ਉਹ ਇਸ 'ਤੇ ਨਿਰਭਰ ਹਨ ਜੋ ਤੁਸੀਂ ਅਸਲ ਵਿੱਚ ਚਲਾ ਸਕਦੇ ਹੋ—ਕਿੰਨੇ GPUs ਤੁਸੀਂ ਲੱਭ ਸਕਦੇ ਹੋ, ਕੀ ਤਰ੍ਹਾਂ ਇਜਤਹਾਦੀ ਤੌਰ 'ਤੇ ਟਰੇਨ ਕਰ ਸਕਦੇ ਹੋ, ਅਤੇ ਕਿੰਨਾ ਉੱਚ ਗੁਣਵੱਤਾ ਵਾਲਾ ਡੇਟਾ ਤੁਹਾਡੇ ਕੋਲ ਹੈ (ਅਤੇ ਕਾਨੂੰਨੀ ਤੌਰ 'ਤੇ ਕਿਵੇਂ ਵਰਤਣਾ ਹੈ)।
ਫਰੰਟਿਅਰ ਮਾਡਲਾਂ ਦੀ ਟ੍ਰੇਨਿੰਗ ਦਾ ਮਤਲਬ ਹਫਤਿਆਂ ਲਈ ਵੱਡੇ ਕਲੱਸਟਰਾਂ ਨੂੰ ਸਮਾਂਜਸ ਕਰਨਾ ਹੈ, ਫਿਰ ਲੱਖਾਂ ਲੋਕ ਸਿਸਟਮ ਵਰਤਣ ਲੱਗਣ 'ਤੇ ਇੰਫ਼ਰੈਂਸ ਲਈ ਫਿਰੋਂ ਖਰਚ ਆਉਂਦਾ ਹੈ। ਇਹ ਦੂਜਾ ਹਿੱਸਾ ਅਕਸਰ ਘਟਿਆ ਅੰਦਾਜ਼ਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ: ਲੋਅ-ਲੈਟੈਂਸੀ ਨਾਲ ਰਿਪਲਾਈ ਦੇਣਾ ਟ੍ਰੇਨਿੰਗ ਜੇਤਨਾ ਹੀ ਇੰਜੀਨੀਅਰਿੰਗ ਅਤੇ compute ਯੋਜਨਾ ਗਾਹਨ ਕਰ ਸਕਦਾ ਹੈ।
ਡੇਟਾ ਪਹੁੰਚ ਵੀ ਤਰੱਕੀ ਨੂੰ ਇੱਕੋ ਜਿਹੇ ਪ੍ਰਯੋਗਾਤਮਕ ਤਰੀਕੇ ਨਾਲ ਨਿਰਧਾਰਤ ਕਰਦੀ ਹੈ। ਇਹ ਕੇਵਲ "ਹੋਰ ਲਿਖਤ" ਨਹੀਂ ਹੈ—ਇਹ ਸਾਫ਼-ਸੁਥਰਾ, ਵੱਖ-ਵੱਖ, ਤਾਜ਼ਾ ਅਤੇ ਅਧਿਕਾਰ ਵਾਲਾ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਜਿਵੇਂ-ਜਿਵੇਂ ਪਬਲਿਕ ਵੈੱਬ ਡੇਟਾ ਭਰਪੂਰ ਹੋ ਜਾਂਦਾ ਹੈ—ਤੇ ਹੋਰ ਸਮੱਗਰੀ AI-ਜਨਿਤ ਹੋਣ ਲੱਗਦੀ ਹੈ—ਟੀਮਾਂ ਜ਼ਿਆਦातर curated datasets, ਲਾਇਸੈਂਸ ਕੀਤੇ ਸਰੋਤ, ਅਤੇ synthetic data ਵਰਗੀਆਂ ਤਕਨੀਕਾਂ ਵੱਲ ਮੜਦੀਆਂ ਹਨ, ਜੋ ਸਮਾਂ ਅਤੇ ਪੈਸਾ ਲੈਂਦੀਆਂ ਹਨ।
ਭਾਈਚਾਰਿਆਂ ਨਾਲ ਉਹ ਗੰਦੇ ਸਮੱਸਿਆਵਾਂ ਹੱਲ ਹੁੰਦੀਆਂ ਹਨ: ਸਥਿਰ ਇੰਫ੍ਰਾਸਟਰੱਕਚਰ, ਹਾਰਡਵੇਅਰ ਲਈ ਪ੍ਰਾਥਮਿਕਤਾ ਪਹੁੰਚ, ਅਤੇ ਵੱਡੀ ਪ੍ਰਣਾਲੀ ਨੂੰ ਸਥਿਰ ਰੱਖਣ ਦੀ ਓਪਰੇਸ਼ਨਲ ਮਹਿਰਤ। ਉਹ ਵੰਡ ਵੀ ਮੁਹੱਈਆ ਕਰ ਸਕਦੇ ਹਨ—ਮਾਡਲ ਨੂੰ ਮੌਜੂਦਾ ਉਤਪਾਦਾਂ ਵਿੱਚ ਜੋੜ ਕੇ—ਤਾਂ ਜੋ ਮਾਡਲ ਡੈਮੋ ਵਿੱਚ ਹੀ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਨਾ ਬਣ ਕੇ ਰੋਜ਼ਮਰ੍ਹਾ ਵਰਕਫਲੋਜ਼ ਦਾ ਹਿੱਸਾ ਬਣ ਜਾਵੇ।
ਖਪਤਕਾਰ ਗੌਂਜ ਬਿਹਤਰ ਹੈ, ਪਰ ਐਂਟਰਪ੍ਰਾਈਜ਼ ਅਪਣਾਉਣ ਮੈਚਰਿਟੀ ਮੰਗਦਾ ਹੈ: ਸੁਰੱਖਿਆ ਸਮੀਖਿਆਵਾਂ, ਕੰਪਲਾਇੰਸ ਦੀਆਂ ਮੰਗਾਂ, ਭਰੋਸੇਯੋਗਤਾ ਦੀਆਂ ਗਾਰੰਟੀ, ਅਤੇ ਅਨੁਮਾਨਯੋਗ ਕੀਮਤਾਂ। ਕਾਰੋਬਾਰ admin controls, auditability ਅਤੇ ਡੋਮੇਨ ਮੁਤਾਬਕ ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਚਾਹੁੰਦੇ ਹਨ—ਇਹ ਲੋੜਾਂ AI ਲੈਬ ਨੂੰ ਉਤਪਾਦ ਅਨੁਸ਼ਾਸਨ ਵੱਲ ਧੱਕਦੀਆਂ ਹਨ।
ਜਿਵੇਂ ਸਕੇਲਿੰਗ ਖਰਚ ਵਧਦੇ ਹਨ, ਖੇਤਰ ਉਨ੍ਹਾਂ ਖਿਡਾਰੀਆਂ ਵੱਲ ਝੁਕਦਾ ਹੈ ਜੋ compute ਨੂੰ ਫੰਡ ਕਰ ਸਕਦੇ ਹਨ, ਡੇਟਾ ਪਹੁੰਚ ਦੀਆਂ ਮੋਹਤਾਜੀ ਸੈਧਾਂ ਨੈਗੋਸ਼ੀਏਟ ਕਰ ਸਕਦੇ ਹਨ, ਅਤੇ ਬਹੁ ਸਾਲਾਂ ਦੀਆਂ ਬੇਟਸ ਨੂੰ ਸਮਝ ਸਕਦੇ ਹਨ। ਇਸ ਨਾਲ ਮੁਕਾਬਲਾ ਖਤਮ ਨਹੀਂ ਹੁੰਦਾ—ਪਰ ਇਹ ਉਸ ਨੂੰ ਬਦਲ ਦਿੰਦਾ ਹੈ। ਛੋਟੀ ਟੀਮਾਂ ਅਕਸਰ ਖਾਸੀਚੇ ਬਣਕੇ, ਕੁਸ਼ਲਤਾ ਵਿੱਚ ਸੁਧਾਰ ਕਰਕੇ, ਜਾਂ ਖੁੱਲ੍ਹੇ ਮਾਡਲਾਂ 'ਤੇ ਨਿਰਭਰ ਕਰਕੇ ਜੀਤਦੀਆਂ ਹਨ, ਨਾ ਕਿ ਸਭ ਤੋਂ ਵੱਡਾ ਮਾਡਲ ਟ੍ਰੇਨ ਕਰਨ ਦੀ ਦੌੜ ਵਿੱਚ।
ਫਰੰਟਿਅਰ AI ਸਿਸਟਮਾਂ ਨੂੰ ਟ੍ਰੇਨ ਅਤੇ ਚਲਾਉਣਾ ਸਿਰਫ਼ ਖੋਜ ਦੀ ਚੁਣੌਤੀ ਨਹੀਂ—ਇਹ ਇੱਕ ਰਾਜਧਾਨੀ ਦੀ ਸਮੱਸਿਆ ਵੀ ਹੈ। ਆਧੁਨਿਕ ਮਾਡਲ ਮਹਿੰਗੀਆਂ ਚੀਜ਼ਾਂ ਜਲ ਜਾਂਦੇ ਹਨ: ਵਿਸ਼ੇਸ਼ ਚਿਪ, ਵੱਡੀ ਡੇਟਾ-ਸੈਂਟਰ ਸਮਰੱਥਾ, ਉਰਜਾ ਅਤੇ ਉਨ੍ਹਾਂ ਟੀਮਾਂ ਨੂੰ ਸੰਭਾਲਣ ਵਾਲੇ ਲੋਕ। ਐਸੇ ਮਾਹੌਲ ਵਿੱਚ, ਫੰਡਿੰਗ ਇਕ ਸਾਈਡ-ਗਤੀਵਿਧੀ ਨਹੀਂ ਰਹਿੰਦੀ; ਇਹ ਓਪਰੇਟਿੰਗ ਮਾਡਲ ਦਾ ਹਿੱਸਾ ਹੈ।
ਪੂੰਜੀ-ਗੰਭੀਰ AI ਵਿੱਚ, ਬੋਤਲ-ਨੇਕ ਅਕਸਰ ਖ਼ਰਚ ਹੁੰਦਾ ਹੈ, ਨਾ ਕਿ ਵਿਚਾਰ। ਪੈਸਾ ਚਿਪਾਂ ਲਈ ਪਹੁੰਚ, ਲੰਬੇ ਸਮੇਂ ਦੀ ਸਮਰੱਥਾ ਦੀਆਂ ਸਹਿਮਤੀਆਂ, ਅਤੇ ਤੇਜ਼ੀ ਨਾਲ ਦੁਹਰਾਉਣ ਦੀ ਯੋਗਤਾ ਖਰੀਦਦਾ ਹੈ। ਇਹ ਸਮਾਂ ਵੀ ਖਰੀਦਦਾ ਹੈ: ਸੁਰੱਖਿਆ ਕੰਮ, ਮੂਲਿਆੰਕਨ ਅਤੇ ਡਿਪਲੋਇਮੈਂਟ ਢਾਂਚਿਆਂ ਨੂੰ ਲਗਾਤਾਰ ਨਿਵੇਸ਼ ਦੀ ਜ਼ਰੂਰਤ ਹੁੰਦੀ ਹੈ।
ਆਲਟਮੈਨ ਦਾ ਪਬਲਿਕ-ਫੇਸ ਬਣਨਾ ਇੱਥੇ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿਉਂਕਿ frontier AI ਫੰਡਿੰਗ ਅਸਾਧਾਰਣ ਤੌਰ 'ਤੇ ਕਹਾਣੀ-ਚਾਲਿਤ ਹੁੰਦੀ ਹੈ। ਨਿਵੇਸ਼ਕ ਸਿਰਫ਼ ਅਜਿਹੀ ਆਮਦਨ ਨਹੀਂ ਦਿਖਦੇ; ਉਹ ਅਗਲੇ ਕਾਬਲਿਆਤਾਂ, ਕੌਣ ਉਹਨਾਂ 'ਤੇ ਕਬਜ਼ਾ ਕਰੇਗਾ, ਅਤੇ ਮਾਰਗ ਕਿੰਨਾ ਰਖਿਆ ਜਾਵੇਗਾ ਇਸ ਬਾਰੇ ਭਰੋਸਾ ਖਰੀਦ ਰਹੇ ਹਨ। ਮਿਸ਼ਨ, ਰੋਡਮੈਪ ਅਤੇ ਬਿਜਨਸ ਮਾਡਲ ਬਾਰੇ ਸਪਸ਼ਟ ਕਹਾਣੀ ਅਣਿਸ਼ਚਿਤਤਾ ਨੂੰ ਘਟਾ ਸਕਦੀ ਹੈ—ਅਤੇ ਵੱਡੀਆਂ ਰਾਸ਼ੀਆਂ ਖੋਲ ਸਕਦੀ ਹੈ।
ਕਹਾਣੀਆਂ ਪਰਗਟ ਤਰੱਕੀ ਨੂੰ ਤੇਜ਼ ਕਰ ਸਕਦੀਆਂ ਹਨ, ਪਰ ਉਹ ਉਮੀਦਾਂ ਨੂੰ ਵੀ ਫੂਲਾ ਸਕਦੀਆਂ ਹਨ; ਹਾਈਪ ਸਾਈਕਲ ਸਮਾਂ-ਰੇਖਾ, ਖੁਦਮੁਖਤਿਆਰਤਾ ਅਤੇ "ਇੱਕ ਮਾਡਲ ਸਾਰਿਆ ਲਈ" ਦੀਆਂ ਉਮੀਦਾਂ ਨੂੰ ਵਧਾਉਂਦਾ ਹੈ। ਜਦ ਹਕੀਕਤ ਪਿੱਛੇ ਰਹਿ ਜਾਂਦੀ ਹੈ, ਭਰੋਸਾ ਘਟਦਾ ਹੈ—ਉਪਭੋਗਤਿਆਂ, ਨਿਯੰਤਰਕਾਂ ਅਤੇ ਭਾਈਚਾਰਿਆਂ ਵਿੱਚ।
ਫੰਡਰਿੰਗ ਰਾਊਂਡਜ਼ ਨੂੰ ਤਾਖਤ ਸਮਝਣ ਦੀ ਥਾਂ, ਉਹ ਸੰਕੇਤ ਵੇਖੋ ਜੋ ਆਰਥਿਕ ਰਵਾਇਤ ਦਰਸਾਉਂਦੇ ਹਨ:
ਇਹ ਸੰਕੇਤ ਦੱਸਦੇ ਹਨ ਕਿ "ਵੱਡੀ AI" ਨੂੰ ਕੌਣ ਟਿਕਾ ਸਕਦਾ ਹੈ, ਕਿਸੇ ਇਕ ਐਲਾਨ ਤੋਂ ਵੱਧ।
ਸੈਮ ਆਲਟਮੈਨ ਸਿਰਫ਼ ਉਤਪਾਦ ਅਤੇ ਭਾਈਚਾਰਿਆਂ ਦੇ ਫੈਸਲੇ ਨਹੀਂ ਲੈ ਰਿਹਾ ਸੀ—ਉਸਨੇ ਜਨਰੇਟਿਵ AI ਕੀ ਹੈ, ਇਹ ਕਿਸ ਲਈ ਹੈ, ਅਤੇ ਇਸ ਦੇ ਖਤਰਿਆਂ ਕੀ ਹਨ ਬਾਰੇ ਜਨਤਕ ਫਰੇਮ ਵੀ ਬਣਾਇਆ। ਇਟਵਾਰ ਇੰਟਰਵਿਊਜ਼, ਕੀਨੋਟ ਟਾਕਸ ਅਤੇ ਕਾਂਗਰੈਸ਼ਨਲ ਟੈਸਟਿਮੋਨੀ ਵਿੱਚ, ਉਹ ਤੇਜ਼-ਚੱਲ ਰਹੀ ਖੋਜ ਅਤੇ ਆਮ ਦਰਸ਼ਕ ਦੇ ਦਰਮਿਆਨ ਇੱਕ ਅਨੁਵਾਦਕ ਬਣਿਆ ਕਿ ਕਿਉਂ ChatGPT ਵਰਗੇ ਟੂਲ ਮਹੱਤਵਪੂਰਨ ਹੋ ਗਏ।
ਆਲਟਮੈਨ ਦੀਆਂ ਜਨਤਕ ਬਿਆਨਬਾਜ਼ੀਆਂ ਵਿੱਚ ਇੱਕ ਲਗਾਤਾਰ ਰਿਦਮ ਦਿੱਖਦੀ ਹੈ:
ਇਹ ਮਿਲਾਪ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿਉਂਕਿ ਖਾਲਿਸ਼ ਹਾਈਪ ਵਿਰੋਧ ਨੂੰ ਬੁਲੰਦ ਕਰਦੀ ਹੈ, ਜਦਕਿ ਖਾਲਿਸ਼ ਡਰ ਅਪਣਾਉਣ ਨੂੰ ਰੋਕ ਸਕਦੀ ਹੈ। ਮਨੋਰਥ ਅਕਸਰ "ਵਿਆਪਕ ਤਤਕਾਲਤਾ" ਜ਼ੋਨ ਨੂੰ ਕਾਇਮ ਰੱਖਣਾ ਹੁੰਦਾ ਹੈ: ਬਣਾਓ, ਡਿਪਲੋਇ ਕਰੋ, ਸਿੱਖੋ, ਅਤੇ ਇਕੱਠੇ ਰੱਖਦੇ ਹੋਏ ਰਕਾਬੀ ਨਿਰਧਾਰਤ ਕਰੋ।
ਜਦ AI ਉਤਪਾਦ ਤੇਜ਼ੀ ਨਾਲ ਇਟਰੇਟ ਕਰਦੇ ਹਨ—ਨਵੇਂ ਮਾਡਲ, ਨਵੇਂ ਫੀਚਰ, ਨਵੇਂ ਸੀਮਾਵਾਂ—ਸਪਸ਼ਟ ਸੰਚਾਰ ਉਤਪਾਦ ਦਾ ਹਿੱਸਾ ਬਣ ਜਾਂਦਾ ਹੈ। ਵਰਤੋਂਕਾਰ ਅਤੇ ਕਾਰੋਬਾਰ ਸਿਰਫ਼ ਇਹ ਨਹੀਂ ਪੁੱਛਦੇ "ਇਹ ਕੀ ਕਰ ਸਕਦਾ ਹੈ?" ਉਹ ਪੁੱਛਦੇ ਹਨ:
ਜਨਤਕ ਸੰਚਾਰ ਅਸਲ ਉਮੀਦਾਂ ਸੈੱਟ ਕਰਕੇ ਅਤੇ ਟਰੇਡ-ਆਫ਼ਾਂ ਨੂੰ ਮਨਜ਼ੂਰ ਕਰਕੇ ਭਰੋਸਾ ਬਣਾਉਂਦਾ ਹੈ। ਇਹ ਭਰੋਸਾ ਢਾਹਾ ਵੀ ਜਾ ਸਕਦਾ ਹੈ ਜੇ ਦਾਵੇ ਓਵਰਰੀਚ ਹੋਣ, ਸੁਰੱਖਿਆ ਵਾਅਦੇ ਧੁੰਦਲੇ ਹੋਣ ਜਾਂ ਲੋਕ ਜਨਤਕ ਤੌਰ 'ਤੇ ਦਿੱਖ ਰਹੇ ਵਲੋਂ ਭੇਟ ਅਤੇ ਤਥਾ ਵਿੱਚ ਫਰਕ ਮਹਿਸੂਸ ਕਰਨ। ਇੱਕ ਜਨਰੇਟਿਵ AI ਬੂਮ ਜੋ ਧਿਆਨ 'ਤੇ ਚੱਲਦਾ ਹੈ, ਆਲਟਮੈਨ ਦੀ ਮੀਡੀਆ ਹਾਜ਼ਰੀ ਨੇ ਅਪਣਾਉਣ ਨੂੰ ਤੇਜ਼ ਕੀਤਾ—ਪਰ ਇਸਨੇ ਤਬੱਰਦਾ ਲਈ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਉੱਚੀ ਮੰਗ ਵੀ ਰੱਖ ਦਿੱਤੀ।
ਸੁਰੱਖਿਆ ਉਹ ਜਗ੍ਹਾ ਹੈ ਜਿੱਥੇ ਜਨਰੇਟਿਵ AI ਦੀ ਹਾਈਪ ਅਸਲ-ਦੁਨੀਆ ਖਤਰਿਆਂ ਨਾਲ ਮਿਲਦੀ ਹੈ। OpenAI ਅਤੇ ਸੈਮ ਆਲਟਮੈਨ ਲਈ, ਚਰਚਾ ਅਕਸਰ ਤਿੰਨ ਵਿਸ਼ਿਆਂ 'ਤੇ ਕੇਂਦਰਿਤ ਹੁੰਦੀ ਹੈ: ਕੀ ਪ੍ਰਣਾਲੀਆਂ ਮਨੁੱਖੀ ਮਕਸਦਾਂ ਵੱਲ ਸੱਜਾਈਆਂ ਜਾ ਸਕਦੀਆਂ ਹਨ (alignment), ਉਹ ਕਿਵੇਂ ਦੁਰਪਯੋਗ ਹੋ ਸਕਦੀਆਂ ਹਨ (misuse), ਅਤੇ ਜਦ ਸ਼ਕਤੀਸ਼ਾਲੀ ਟੂਲ ਕੰਮ, ਜਾਣਕਾਰੀ ਅਤੇ ਰਾਜਨੀਤੀ ਨੂੰ ਬਦਲਦੇ ਹਨ ਤਾਂ ਕੀ ਹੁੰਦਾ ਹੈ (ਸਮਾਜਿਕ ਪ੍ਰਭਾਵ)।
Alignment ਦਾ ਮਤਲਬ ਹੈ ਕਿ AI ਉਹੀ ਕਰੇ ਜੋ ਲੋਕ ਮੰਨਦੇ ਹਨ, ਭਾਵੇਂ ਹਾਲਾਤ ਮਨਮੁਰਾਦ ਹੋਣ। ਅਮਲ ਵਿੱਚ, ਇਹ hallucinations ਨੂੰ ਤੱਥ ਵਜੋਂ ਪੇਸ਼ ਕਰਨ ਤੋਂ ਰੋਕਣਾ, ਨੁਕਸਾਨਦਾਇਕ ਬੇਨਤੀ ਨੂੰ ਅਸਵੀਕਾਰ ਕਰਨਾ ਅਤੇ safeguards ਨੂੰ ਬਾਈਪਾਸ ਕਰਨ ਵਾਲੇ "ਜੈਲਬ੍ਰੇਕ" ਘਟਾਉਣਾ ਸ਼ਾਮਿਲ ਹੈ।
Misuse ਬੁਰੇ ਕਿਰਦਾਰੀਆਂ ਬਾਰੇ ਹੈ। ਉਹੀ ਮਾਡਲ ਜੋ ਕਵਰ ਲੈਟਰ ਲਿਖਣ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ, phishing ਨੂੰ ਵਧਾਉਣ, ਮਾਲਵੇਅਰ ਡਰਾਫਟ ਬਣਾਉਣ ਜਾਂ ਗੁੰਮਰਾਹ ਕਰਨ ਵਾਲੀ ਸਮੱਗਰੀ ਬਣਾਉਣ ਵਿੱਚ ਵੀ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਜਿੰਮੇਵਾਰ ਲੈਬਾਂ ਇਸਨੂੰ ਇਕ ਓਪਰੇਸ਼ਨਲ ਸਮੱਸਿਆ ਵਜੋਂ ਦੇਖਦੀਆਂ ਹਨ: ਮਾਨੀਟਰਨਿੰਗ, ਰੇਟ ਲਿਮਿਟ, ਦੁਸ਼ਮਨ ਪਛਾਣ, ਅਤੇ ਮਾਡਲ ਅਪਡੇਟ— ਕੇਵਲ ਦਾਰਸ਼ਨਿਕ ਨਹੀਂ।
ਸਮਾਜਿਕ ਪ੍ਰਭਾਵ ਵਿੱਚ ਨਾਪਤੌਲੇ ਜਾਣ ਵਾਲੇ ਪ੍ਰਭਾਵ ਆਉਂਦੇ ਹਨ: ਪੱਖਪਾਤ, ਪਰਦਾ-ਪੇਸ਼ੀ, ਮਜ਼ਦੂਰੀ ਦੀ ਬਦਲੀ, ਔਨਲਾਈਨ ਜਾਣਕਾਰੀ ਦੀ ਭਰੋਸਯੋਗਤਾ, ਅਤੇ ਉੱਚ-ਦਾਅ ਵਾਲੀਆਂ ਸਥਿਤੀਆਂ (ਸਿਹਤ, ਕਾਨੂੰਨ) ਵਿੱਚ AI 'ਤੇ ਅਤਿਅਧਿਕ ਨਿਰਭਰਤਾ।
ਗਵਰਨੈਂਸ "ਕੌਣ ਫੈਸਲਾ ਕਰਦਾ ਹੈ" ਅਤੇ "ਕੌਣ ਰੋਕ ਸਕਦਾ ਹੈ" ਦਾ ਹਿੱਸਾ ਹੈ। ਇਹ ਬੋਰਡ ਨਜ਼ਰ, ਅੰਦਰੂਨੀ ਸਮੀਖਿਆ ਪ੍ਰਕਿਰਿਆਵਾਂ, ਬਾਹਰੀ ਆਡਿਟ, ਰਿਸਰਚਰਾਂ ਲਈ ਏਸਕਲੇਸ਼ਨ ਪਾਥ ਅਤੇ ਮਾਡਲ ਰਿਲੀਜ਼ ਦੀਆਂ ਨੀਤੀਆਂ ਸ਼ਾਮਿਲ ਹਨ।
ਇਹ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿਉਂਕਿ AI ਵਿੱਚ ਪ੍ਰੇਰਨਾਵਾਂ ਤੇਜ਼ ਹੁੰਦੀਆਂ ਹਨ। ਉਤਪਾਦ ਦਬਾਅ, ਮੁਕਾਬਲਾਤੀ ਗਤੀਵਿਧੀਆਂ, ਅਤੇ compute ਦੀ ਲਾਗਤ ਸਭ ਕੁਝ ਤੇਜ਼ ਰਿਲੀਜ਼ ਵੱਲ ਧੱਕ ਸਕਦੇ ਹਨ। ਗਵਰਨੈਂਸ ਸਾਂਚੇ ਠੋਸ friction ਬਣਾਉਂਦੇ ਹਨ—ਸਿਹਤਮੰਦ ਸਪੀਡ-ਬੰਧ—ਤਾਂ ਜੋ ਜਦ ਟਾਈਮਲਾਈਨ ਤੰਗ ਹੋਵੇ, ਸੁਰੱਖਿਆ ਵਿਕਲਪਇਕ ਨਾ ਬਣੇ।
ਜ਼ਿਆਦਾਤਰ AI ਕੰਪਨੀਆਂ ਵਧੀਆ ਨੀਤੀਆਂ ਪ੍ਰਕਾਸ਼ਿਤ ਕਰ ਸਕਦੀਆਂ ਹਨ। ਲਾਗੂ ਕਰਨਾ ਵੱਖਰਾ ਹੈ: ਇਹ ਉਸ ਸਮੇਂ ਦਾ ਕੰਮ ਹੈ ਜਦ ਨੀਤੀਆਂ ਰੇਵਿਨਿਊ, ਵਿਕਾਸ, ਜਾਂ ਜਨਤਕ ਦਬਾਅ ਨਾਲ ਟਕਰਾਉਂਦੀਆਂ ਹਨ।
ਲਾਗੂ ਕਰਨ ਦੇ ਪ੍ਰਮਾਣਾਂ ਵਿੱਚ ਸ਼ਾਮਿਲ ਹਨ: ਸਪਸ਼ਟ ਰਿਲੀਜ਼ ਮਾਪਦੰਡ, ਦਸਤਾਵੇਜ਼ਕ ਖਤਰਾ ਅੰਕੜੇ, ਅਜ਼ਾਦ red-teaming, ਪਾਰਦਰਸ਼ਤਾ ਰਿਪੋਰਟਸ, ਅਤੇ ਜਦ ਖਤਰਿਆਂ ਅਸਪਸ਼ਟ ਹਨ ਤਾਂ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਸੀਮਿਤ ਜਾਂ ਰੋਕਣ ਦੀ ਤਿਆਰੀ।
ਜਦ ਤੁਸੀਂ ਕਿਸੇ AI ਪਲੇਟਫਾਰਮ ਨੂੰ ਨਿਰਖ ਰਹੇ ਹੋ—OpenAI ਜਾਂ ਹੋਰ—ਉਹ ਸਵਾਲ ਪੁੱਛੋ ਜੋ ਦਿਖਾਂਦੇ ਹਨ ਕਿ ਸੁਰੱਖਿਆ ਦਿਨ-ਰੋਜ਼ ਕਿਵੇਂ ਕੰਮ ਕਰਦੀ ਹੈ:
ਜਦ ਤੁਸੀਂ AI-ਨੈਟਿਵ ਟੂਲ ਵਰਤ ਰਹੇ ਹੋ ਜੋ ਗਹਿਰਾਈ ਨਾਲ ਵਰਕਫਲੋਜ਼ ਵਿੱਚ ਏੰਬਡ ਕਰਦੇ ਹਨ, ਉਦਾਹਰਣ ਲਈ ਜੇ ਤੁਸੀਂ ਇੱਕ vibe-coding ਪਲੇਟਫਾਰਮ Koder.ai ਵਰਤਦੇ ਹੋ ਤਾਂ ਇਹ ਪ੍ਰਸ਼ਨ ਸਿੱਧੇ ਤੌਰ 'ਤੇ ਐਸੇ ਹੋ ਜਾਏਗਾ: ਤੁਹਾਡੇ ਐਪ ਡੇਟਾ ਨੂੰ ਕਿਵੇਂ ਹੈਂਡਲ ਕੀਤਾ ਜਾਂਦਾ, ਟੀਮਾਂ ਲਈ ਕੀ ਕੰਟਰੋਲ ਹਨ, ਅਤੇ ਜਦ ਅਧਾਰਭੂਤ ਮਾਡਲਾਂ ਬਦਲਦੇ ਹਨ ਤਾਂ ਕੀ ਹੁੰਦਾ ਹੈ।
ਜਿੰਮੇਵਾਰ AI ਇੱਕ ਲੇਬਲ ਨਹੀਂ—ਇਹ ਫੈਸਲਿਆਂ, ਪ੍ਰੇਰਣਾਵਾਂ ਅਤੇ ਨਿਆਮਾਂ ਦਾ ਇੱਕ ਸੈੱਟ ਹੈ ਜਿਸਦੀ ਤੁਸੀਂ ਜਾਂਚ ਕਰ ਸਕਦੇ ਹੋ।
ਨਵੰਬਰ 2023 ਵਿੱਚ, OpenAI ਅਚਾਨਕ ਇਸ ਗੱਲ ਦੀ ਉਦਾਹਰਨ ਬਣ ਗਿਆ ਕਿ ਜਦ ਇੱਕ ਤੇਜ਼-ਚਲਦੀ ਕੰਪਨੀ ਨੂੰ ਸ਼ਕਤੀਸ਼ਾਲੀ ਤਕਨੀਕ ਦੀ ਸੁਰੱਖਿਆ ਵੀ ਦੇਣੀ ਹੋਵੇ ਤਾਂ ਗਵਰਨੈਂਸ ਕਿਵੇਂ ਗੰਝਲਦਾਰ ਹੋ ਸਕਦੀ ਹੈ। ਬੋਰਡ ਨੇ CEO ਸੈਮ ਆਲਟਮੈਨ ਨੂੰ ਹਟਾ ਦਿੱਤਾ, ਭਰੋਸੇ ਤੇ ਸੰਚਾਰ ਵਿੱਚ ਟੁਟਣ ਦਾ ਹਵਾਲਾ ਦਿੰਦੇ ਹੋਏ। ਕਈ ਦਿਨਾਂ ਵਿੱਚ ਹਾਲਾਤ ਤੇਜ਼ੀ ਨਾਲ ਬਦਲੇ: ਮੁਖੀ ਨੇਤਾ ਅਸਥਾਈ ਤੌਰ 'ਤੇ ਅਸਤੀਫ਼ਾ ਦਿੱਤਾ, ਕਰਮਚਾਰੀਆਂ ਦੇ ਵਿਆਪਕ ਛੁੱਟਣ ਦੀਆਂ ਚੁਨੌਤੀਆਂ ਦੀਆਂ ਖਬਰਾਂ ਆਈਆਂ, ਅਤੇ Microsoft—OpenAI ਦਾ ਸਭ ਤੋਂ ਵੱਡਾ ਰਣਨੀਤਿਕ ਭਾਈਦਾਰ—ਆਲਟਮੈਨ ਅਤੇ ਦੂਜਿਆਂ ਨੂੰ ਭਰਤੀ ਕਰਨ ਲਈ ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਆਇਆ।
ਤਿੱਖੀ ਨੇਗੋਸ਼ਿਏਸ਼ਨਾਂ ਅਤੇ ਜਨਤਕ ਨਿਗਰਾਨੀ ਤੋਂ ਬਾਅਦ, ਆਲਟਮੈਨ CEO ਵਜੋਂ ਮੁੜ-ਨਿਯੁਕਤ ਕੀਤਾ ਗਿਆ। OpenAI ਨੇ ਇੱਕ ਨਵੀਂ ਬੋਰਡ ਰਚਨਾ ਦਾ ਐਲਾਨ ਵੀ ਕੀਤਾ, ਜੋ ਨਿਗਰਾਨੀ ਸਥਿਰ ਕਰਨ ਅਤੇ ਕਰਮਚਾਰੀਆਂ ਅਤੇ ਭਾਈਚਾਰਿਆਂ ਵਿੱਚ ਭਰੋਸਾ ਮੁੜ-ਤਿਆਰ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਸੀ।
ਜਿੱਥੇ ਅੰਦਰੂਨੀ ਵਿਵਾਦਾਂ ਦੇ ਵੇਰਵੇ ਕਦੇ ਵੀ ਪੂਰਨ ਤੌਰ 'ਤੇ ਜਨਤਕ ਨਹੀਂ ਕੀਤੇ ਗਏ, ਪ੍ਰਸਾਰਿਤ ਸਮਾਂ-ਰੇਖਾਵਾਂ ਨੇ ਦਰਸਾਇਆ ਕਿ ਕਿਵੇਂ ਗਵਰਨੈਂਸ ਵਿਵਾਦ ਤੇਜ਼ੀ ਨਾਲ ਇਕ ਓਪਰੇਸ਼ਨਲ ਅਤੇ ਖ਼ਿਆਤੀ ਸੰਕਟ ਬਣ ਸਕਦਾ ਹੈ—ਖ਼ਾਸ ਕਰਕੇ ਜਦ ਕਿਸੇ ਕੰਪਨੀ ਦੇ ਉਤਪਾਦ ਗਲੋਬਲ AI ਚਰਚਾਵਾਂ ਦਾ ਕੇਂਦਰ ਬਣ ਗਏ ਹੋਣ।
OpenAI ਦੀ ਬਣਤਰ ਲੰਬੇ ਸਮੇਂ ਤੋਂ ਅਜੀਬ ਰਹੀ: ਇੱਕ capped-profit ਓਪਰੇਟਿੰਗ ਕੰਪਨੀ ਜੋ ਇੱਕ ਨਾਨ-ਪ੍ਰਾਫਿਟ ਸੰਸਥਾ ਦੇ ਹੇਠਾਂ ਹੈ, ਜਿਸਨੂੰ ਵਪਾਰਕਰਨ ਅਤੇ ਸੁਰੱਖਿਆ/ਮਿਸ਼ਨ ਦੇ ਨਾਲ ਸੰਤੁਲਨ ਬਣਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ। ਇਹ ਸੰਕਟ ਉਸ ਮਾਡਲ ਦੀ ਇਕ ਪ੍ਰਯੋਗਾਤਮਕ ਚੁਣੌਤੀ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ: ਜਦ ਤਰਜੀحات ਟਕਰਾਉਂਦੀਆਂ ਹਨ (ਤੇਜ਼ੀ, ਸੁਰੱਖਿਆ, ਪਾਰਦਰਸ਼ਤਾ, ਭਾਈਚਾਰੇ, ਫੰਡਿੰਗ), ਫੈਸਲਾ-ਲੈਣ ਅਸਪਸ਼ਟ ਹੋ ਸਕਦਾ ਹੈ ਅਤੇ ਜ਼ਿੰਮੇਵਾਰੀ ਵੱਖ-ਵੱਖ ਇਕਾਈਆਂ ਵਿੱਚ ਵੰਡੇ ਹੋਏ ਮਹਿਸੂਸ ਹੋ ਸਕਦੀ ਹੈ।
ਇਸਨੇ ਇਹ ਵੀ ਦਿਖਾਇਆ ਕਿ compute ਖਰਚ ਅਤੇ ਭਾਈਚਾਰਿਆਂ ਨਾਲ ਬਣੀਆਂ ਨਿਰਭਰਤਾਵਾਂ ਨਾਲ ਪਾਵਰ ਡਾਇਨਾਮਿਕਸ ਕਿਵੇਂ ਬਣਦੇ ਹਨ। ਜਦ ਸਕੇਲ ਕਰਨ ਲਈ ਵੱਡੀ ਢਾਂਚਾ-ਲਾਗਤ ਲੋੜੀਂਦੀ ਹੈ, ਰਣਨੀਤਿਕ ਭਾਈਦਾਰ ਦੂਰ ਦਰਾਜ ਦਰਸ਼ਕ ਨਹੀਂ ਰਹਿ ਸਕਦੇ।
ਜਿਨ੍ਹਾ ਕੰਪਨੀਆਂ advanced AI ਜਾਂ ਹੋਰ ਕਿਸੇ ਉੱਚ-ਦਾਅ ਵਾਲੀ ਤਕਨੀਕ 'ਤੇ ਕੰਮ ਕਰ ਰਹੀਆਂ ਹਨ, ਇਸ ਘਟਨਾ ਨੇ ਕੁਝ ਮੂਲ ਸਬਕ ਦੁਹਰਾਏ:
ਸਭ ਤੋਂ ਵੱਧ, ਇਹ ਸੰਕੇਤ ਦਿੱਤਾ ਕਿ "ਜ਼ਿੰਮੇਵਾਰ ਨੇਤ੍ਰਿਤਵ" ਕੇਵਲ ਨੀਤੀਆਂ ਬਾਰੇ ਨਹੀਂ; ਇਹ ਮਜ਼ਬੂਤ ਸਾਂਚਿਆਂ ਬਾਰੇ ਵੀ ਹੈ ਜੋ ਅਸਲ-ਦੁਨੀਆ ਦੇ ਦਬਾਅ ਨੂੰ ਸਹਿਣ ਕਰਨ ਯੋਗ ਹੋਣ।
OpenAI ਨੇ ਸਿਰਫ਼ ਇੱਕ ਲੋਕਪ੍ਰਿਯ ਮਾਡਲ ਨਹੀਂ ਛੱਡਿਆ; ਇਸਨੇ ਉਮੀਦਾਂ ਨੂੰ ਰੀਸੈੱਟ ਕੀਤਾ ਕਿ ਕਿਸ ਤਰ੍ਹਾਂ AI ਸਮਰੱਥਾਵਾਂ ਲੈਬ ਤੱਕ ਤੋਂ ਰੋਜ਼ਾਨਾ ਟੂਲਾਂ ਤੱਕ ਫੈਲਣੀਆਂ ਚਾਹੀਦੀਆਂ ਹਨ। ਇਹ ਬਦਲਾਅ ਪੂਰੇ ਉਦਯੋਗ ਨੂੰ ਤੇਜ਼ ਰਿਲੀਜ਼ ਸਾਈਕਲਾਂ, ਵੱਧ ਮਾਡਲ ਅਪਡੇਟਾਂ, ਅਤੇ "ਉਪਯੋਗੀ" ਫੀਚਰ—ਚੈਟ ਇੰਟਰਫੇਸ, APIs ਅਤੇ ਇੰਟਿਗ੍ਰੇਸ਼ਨ—ਵੱਲ ਧਕਿਆ, ਨਾ ਕਿ ਸਿਰਫ਼ ਡੈਮੋ ਵੱਲ।
ਵੱਡੇ ਟੈਕ ਮੁਕਾਬਲੇਦਾਰ ਆਮਤੌਰ 'ਤੇ ਉਤਪਾਦ ਕੈਡੈਂਸ ਨੂੰ ਮਿਲਾਉਂਦੇ ਅਤੇ ਆਪਣੇ compute ਅਤੇ ਵੰਡ ਚੈਨਲ ਸੁਰੱਖਿਅਤ ਕਰਦੇ ਹਨ। ਤੁਸੀਂ ਇਹ ਸਹੂਲਤ ਅਸੀਮਤ ਢੰਗ ਨਾਲ ਦੇਖ ਸਕਦੇ ਹੋ—ਸਹਾਇਕ ਫੀਚਰਾਂ ਦੀ ਤੇਜ਼ ਰੋਲਆਊਟ ਵਿੱਚ।
ਓਪਨ-ਸੋਰਸ ਕਮਿ ਯੂਨਿਟੀਆਂ ਨੇ ਵੱਖਰੀ ਰਿਹਾਇਸ਼ ਕੀਤੀ: ਬਹੁਤ ਪ੍ਰਾਜੈਕਟਾਂ ਨੇ "ਕਾਫ਼ੀ ਵਧੀਆ" ਚੈਟ ਅਤੇ ਕੋਡਿੰਗ ਅਨੁਭਵ ਨੂੰ ਸਥਾਨਕ ਤੌਰ 'ਤੇ ਦੁਹਰਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਤੇਜ਼ ਕੀਤੀ, ਖਾਸ ਕਰਕੇ ਜਦ ਲਾਗਤ, ਲੇਟੈਂਸੀ ਜਾਂ ਡੇਟਾ ਨਾਇੰਤਰਣ ਮਹੱਤਵਪੂਰਨ ਹੋ। ਉਸੇ ਸਮੇਂ, ਟ੍ਰੇਨਿੰਗ ਬਜਟਾਂ ਵਿੱਚ ਫਰਕ ਨੇ ਓਪਨ-ਸੋਰਸ ਨੂੰ ਕੁਸ਼ਲਤਾ ਕੰਮ—quantization, fine-tuning, ਛੋਟੇ ਵਿਸ਼ੇਸ਼ ਮਾਡਲ—ਤੇ ਧਿਆਨ ਦੇਣ ਲਈ ਧੱਕਿਆ, ਅਤੇ ਮੂਲਿਆੰਕਨ ਬੈਂਚਮਾਰਕ ਸਾਂਝੇ ਕਰਨ ਦੀ ਸੰਸਕ੍ਰਿਤੀ ਨੂੰ ਪ੍ਰੋਤਸਾਹਿਤ ਕੀਤਾ।
ਸਟਾਰਟਅਪਾਂ ਲਈ, API-ਪਹਿਲਾਂ ਪਹੁੰਚ ਸਭ ਕੁਝ ਹਫ਼ਤਿਆਂ 'ਚ ਉਤਪਾਦ ਲਾਂਚ ਕਰਨ ਯੋਗ ਬਣਾਉਂਦੀ ਸੀ। ਪਰ ਇਸ ਨਾਲ ਨਿਰਭਰਤਾਵਾਂ ਵੀ ਆਈਆਂ ਜੋ ਫਾਉਂਡਰ ਹੁਣ ਯੋਜਨਾਵਾਂ ਅਤੇ ਕੀਮਤ ਬਨਾਉਣ 'ਚ ਧਿਆਨ ਵਿੱਚ ਰੱਖਦੇ ਹਨ:
ਕੰਪਨੀਆਂ ਨੇ ਸਿਰਫ਼ "AI ਇੰਜੀਨੀਅਰ" ਨਹੀਂ ਨੌਕਰੀ 'ਤੇ ਰੱਖਿਆ। ਬਹੁਤ ਸਾਰਿਆਂ ਨੇ ਉਨ੍ਹਾਂ ਭੂਮਿਕਾਵਾਂ ਨੂੰ ਜੋੜਿਆ ਜੋ ਉਤਪਾਦ, ਕਾਨੂੰਨੀ ਅਤੇ ਓਪਰੇਸ਼ਨ ਨੂੰ ਜੋੜਦੀਆਂ ਹਨ: prompt/AI UX, ਮਾਡਲ ਮੂਲਿਆੰਕਨ, ਸੁਰੱਖਿਆ ਸਮੀਖਿਆ, ਅਤੇ ਲਾਗਤ ਮਾਨੀਟਰਿੰਗ। ਰਣਨੀਤੀ ਵੀ AI-ਨੈਟਿਵ ਵਰਕਫਲੋਜ਼ ਵੱਲ ਮੁੜ ਗਈ—ਮੌਜੂਦਾ ਉਤਪਾਦਾਂ 'ਤੇ AI ਜੋੜਨ ਦੀ ਥਾਂ ਉਨ੍ਹਾਂ ਦੇ ਅੰਦਰ ਸਹਾਇਕ ਬਣਾਉਣਾ।
ਇਹ ਰੁਝਾਨ ਹਨ, ਗਾਰੰਟੀ ਨਹੀਂ, ਪਰ ਦਿਸ਼ਾ ਸਪਸ਼ਟ ਹੈ: AI ਸ਼ਿਪ ਕਰਨ ਵਿੱਚ ਹੁਣ ਉਤਪਾਦ ਗਤੀ, ਸਪਲਾਈ ਸੀਮਾਵਾਂ, ਅਤੇ ਗਵਰਨੈਂਸ ਤਿੰਨੋ ਇਕੱਠੇ ਹਨ।
ਆਲਟਮੈਨ ਦਾ ਸਫ਼ਰ OpenAI ਨਾਲ ਕਹਾਣੀ-ਹੀਰੋ ਕਹਾਣੀ ਨਹੀਂ, ਬਲਕਿ ਇਸ ਦਾ ਇੱਕ ਕੇਸ ਅਧਿਐਨ ਹੈ ਕਿ ਆਧੁਨਿਕ AI ਸੰਸਥਾਵਾਂ ਕਿਵੇਂ ਚਲਦੀਆਂ ਹਨ: ਤੇਜ਼ ਉਤਪਾਦ ਚਕ੍ਰ, ਵੱਡੇ ਇੰਫ੍ਰਾਸਟਰੱਕਚਰ ਬੇਟਸ, ਲਗਾਤਾਰ ਜਨਤਕ ਨਿਗਰਾਨੀ, ਅਤੇ ਗਵਰਨੈਂਸ ਦਾ ਪਰਖ। ਜੇ ਤੁਸੀਂ ਬਣਾਉਣ, ਨਿਵੇਸ਼ ਕਰਨ ਜਾਂ ਸਿਰਫ਼ ਅਪਡੇਟ ਰੱਖਣਾ ਚਾਹੁੰਦੇ ਹੋ, ਕੁਝ ਪ੍ਰਯੋਗਿਕ ਸਬਕ ਨਜ਼ਰ ਆਉਂਦੇ ਹਨ।
ਪਹਿਲਾਂ, ਕਹਾਣੀ ਇੱਕ ਸੰਦ ਹੈ—ਪਰ ਇਹ ਕਾਰੋਬਾਰ ਨਹੀਂ। ਜੇਤੂ ਟੀਮਾਂ ਜਿੱਤਦੀਆਂ ਹਨ ਉਹ ਸਪਸ਼ਟ ਸੁਨੇਹੇ ਨੂੰ ਢੰਗ ਨਾਲ ਡਿਲਿਵਰੀ ਦੇ ਨਾਲ ਜੋੜਦੀਆਂ ਹਨ: ਉਪਯੋਗੀ ਫੀਚਰ, ਭਰੋਸੇਯੋਗਤਾ ਸੁਧਾਰ, ਅਤੇ ਵੰਡ।
ਦੂਸਰਾ, ਰੋਕੜ ਅਕਸਰ ਵਿਚਾਰ ਨਹੀਂ ਹੁੰਦੀ। ਇਹ compute, ਡੇਟਾ ਪਹੁੰਚ, ਅਤੇ ਕਾਰਗੁਜ਼ਾਰੀ ਹੈ। AI ਵਿੱਚ, ਨੇਤ੍ਰਿਤਵ ਦਫ਼ਤਰ ਬਣਾਉਂਦਾ ਹੈ ਅਸੁਖਦ ਚੋਣਾਂ: ਹੁਣ ਕੀ ਸ਼ਿਪ ਕਰਨਾ ਹੈ, ਕੀ ਸੁਰੱਖਿਆ ਲਈ ਰੋਕਣਾ ਹੈ, ਅਤੇ ਲੰਮੀ ਮਿਆਦ ਲਈ ਕੀ ਫੰਡ ਕਰਨਾ ਹੈ।
ਤੀਜਾ, ਗਵਰਨੈਂਸ ਸਭ ਤੋਂ ਜ਼ਿਆਦਾ ਮਾਇਨੇ ਰੱਖਦੀ ਹੈ ਜਦ ਕੁਝ ਗਲਤ ਹੋ ਜਾਵੇ। 2023 ਦੇ ਉਥਲ-ਪੁਥਲ ਨੇ ਦਿਖਾਇਆ ਕਿ ਫੋਰਮਲ ਸਾਂਚੇ (ਬੋਰਡ, ਚਾਰਟਰ, ਭਾਈਚਾਰੇ) ਤੇਜ਼ੀ ਅਤੇ ਉਤਪਾਦ ਦਬਾਅ ਨਾਲ ਟਕਰਾਉਂ ਸਕਦੇ ਹਨ। ਵਧੀਆ ਓਪਰੇਟਰੀਜ਼ ਵਾਡੀਆਂ ਸਥਿਤੀਆਂ ਲਈ ਤਿਆਰ ਰਹਿੰਦੀਆਂ ਹਨ, ਸਿਰਫ਼ ਵਿਕਾਸ ਲਈ ਨਹੀਂ।
ਤਿੰਨ ਮੈਦਾਨਾਂ 'ਤੇ ਧਿਆਨ ਰੱਖੋ:
ਗਹਿਰਾਈ ਲਈ, ਦੇਖੋ /blog/ai-safety ਅਤੇ /blog/ai-regulation.
ਜਦ ਸਿੱਖਰ-ਸਰਦੀਆਂ ਵਧਦੀਆਂ ਹਨ, ਉਹ ਸੰਕੇਤ ਲੱਭੋ ਜੋ ਤੁਸੀਂ ਜਾਂਚ ਸਕਦੇ ਹੋ:
ਜੇ ਤੁਸੀਂ ਇਹ ਫਿਲਟਰ ਲਗਾਉਂਦੇ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਹਰ ਐਲਾਨ 'ਤੇ whiplash ਤੋਂ ਬਚ ਕੇ AI ਤਰੱਕੀ ਨੂੰ ਸਮਝ ਸਕੋਗੇ।
ਉਹ ਇੱਕ ਐਸੀ ਸੰਸਥਾ ਦਾ ਜਨਤਕ ਚਿਹਰਾ ਬਣ ਗਿਆ ਜੋ frontier AI ਰਿਸਰਚ ਨੂੰ ਬਜ਼ਾਰ-ਪੱਧਰ ਦੇ ਉਤਪਾਦ ਵਿੱਚ ਬਦਲ ਸਕਦੀ ਸੀ। ਜ਼ਿਆਦਾਤਰ ਲੋਕ ChatGPT ਨੂੰ ਹੀ ਜਾਣਦੇ ਹਨ ਨਾਂ ਕਿ ਉਹ ਪਿਛੋਕੜ ਦੇ ਖੋਜਕਾਰਾਂ ਨੂੰ, ਇਸ ਲਈ ਉਹ CEO ਜੋ ਫੰਡ ਕਰ ਸਕਦਾ, ਸਮਝਾ ਸਕਦਾ ਅਤੇ ਤਕਨੀਕ ਨੂੰ ਕੰਮ ਕਰਕੇ ਲਿਆ ਸਕਦਾ ਹੈ, ਉਹ ਇਸ ਮੋੜ ਦਾ ਦਰਸ਼ਣਯੋਗ “ਚਿਹਰਾ” ਬਣ ਜਾਂਦਾ ਹੈ।
ਸਰਲ ਸਨੈਪਸ਼ਾਟ:
Y Combinator ਅਤੇ startup ਜੀਵਨ ਕਾਰਗੁਜ਼ਾਰੀ 'ਤੇ ਨਿਭਰਵਾਨ ਹਨ:
ਇਹ ਸੁਝਾਵ ਜਨਰੇਟਿਵ AI ਵਿੱਚ ਵੀ ਫਲਦੇ ਹਨ ਕਿਉਂਕਿ ਤਕਨੀਕੀ ਉੱਪਲਬਧੀਆਂ ਆਪੇ-ਇੱਕ ਵਰਤੋਂ ਵਿੱਚ ਨਹੀਂ ਆਉਂਦੀਆਂ।
ਅਕਸਰ CEO ਕੋਰ ਮਾਡਲ ਖੁਦ ਨਹੀਂ ਬਣਾਉਂਦਾ, ਪਰ ਉਹ ਜ਼ਰੂਰੀ ਪ੍ਰਭਾਵ ਰੱਖਦਾ ਹੈ:
ਇਹ ਗਵਰਨੈਂਸ ਫੈਸਲੇ ਬਿਨਾਂ ਦੇਖਣ ਵਾਲੇ ਜ਼ਿਆਦਾ ਨੈਤਿਕ ਨਹੀਂ, ਬਲਕਿ ਦੈਨੰਦਿਨ ਵਰਤੀ ਨੂੰ ਬਣਾਉਂਦੇ ਹਨ।
ਰਿਲੀਜ਼ ਵਾਇਰਫਰੇਮ ਅਤੇ ਪ੍ਰਯੋਗ ਕਰਨ ਦੀ ਵਿਵਸਥਾ ਬੇਨਤੀਕ ਹੈ:
ਅਸਲ ਵਿੱਚ, ਉਤਪਾਦਕਾਰੀ ਰਿਲੀਜ਼ ਇੱਕ ਵੱਡੇ ਪੈਮਾਨੇ 'ਤੇ ਲਾਗੂ ਮੂਲਿਆੰਕਨ ਬਣ ਜਾਂਦੀ ਹੈ।
ਇਹ ਇਸ ਲਈ ਕੰਮ ਕਰ ਗਿਆ ਕਿਉਂਕਿ ਇਹ ਡੈਮੋ ਨਾ ਹੋ ਕੇ ਉਪਯੋਗੀ ਉਤਪਾਦ ਜਿਹਾ ਲੱਗਿਆ:
ਇਸ ਸਾਦਗੀ ਨੇ ਰੁਕਾਵਟ ਭਾਰੀ ਘੱਟ ਕਰ ਦਿੱਤੀ ਤਾਂ ਜੋ ਮਿਲੀਅਨਾਂ ਲੋਕ ਮਿੰਟਾਂ 'ਚ ਹੀ ਮੁੱਲ ਦੇਖ ਸਕਣ।
ਫਰੰਟਿਅਰ ਮਾਡਲਾਂ ਦੇ ਘੁੱਟਣ ਵਾਲੇ ਬਿੰਦੂ ਵਾਸਤਵ ਵਿੱਚ ਪ੍ਰਯੋਗਾਤਮਕ ਹਨ:
ਭਾਈਚਾਰੇ($PARTNERSHIPS$) ਸਿਰਫ਼ ਨਗਦ ਨਹੀਂ ਦੇਂਦੇ—ਉਹ ਢਾਂਚਾ, ਹਾਰਡਵੇਅਰ ਤਰਜਹੀਆਂ ਅਤੇ ਵੰਡ ਦੇ ਰਾਹ ਦਿੰਦੇ ਹਨ ਜੋ ਪ੍ਰਣਾਲੀ ਨੂੰ ਸਥਿਰ ਰੱਖਦੇ ਹਨ।
ਕਿਉਂਕਿ ਰੋਕੜ ਅਕਸਰ ਖ਼ਰਚਾ ਹੈ, ਨਾਂ ਕਿ ਵਿਚਾਰ। ਫੰਡਿੰਗ ਨਾਲ ਮਿਲਦਾ ਹੈ:
ਖਤਰਾ ਇਹ ਹੈ ਕਿ ਮਜ਼ਬੂਤ ਕਹਾਣੀਆਂ ਉਮੀਦਾਂ ਨੂੰ ਫੂਲਾ ਦਿੰਦੇ ਹਨ; ਸਿਹਤਮੰਦ ਸੰਕੇਤ ਯੂਨਿਟ ਅਰਥਸ਼ਾਸਤਰ, ਰਿਟੇੰਸ਼ਨ ਅਤੇ ਸਕੇਲ ਕਰਨਯੋਗ ਸੁਰੱਖਿਆ ਨਿਵੇਸ਼ ਹਨ—ਖਬਰਾਂ ਨਹੀਂ।
ਉਸਦਾ ਸੰਦੇਸ਼ ਤਿੰਨ ਤੱਤ ਮਿਲਾ ਕੇ ਆਉਂਦਾ ਹੈ:
ਇਹ ਮਿਸ਼ਰਣ ਗੈਰ-ਤਰੱਕੀਵਾਦੀ ਹਿਜਕ ਨੂੰ ਘਟਾਉਂਦੀ ਹੈ ਅਤੇ ਇਜਾਦ ਅਤੇ ਸੁਰੱਖਿਆ ਵਿੱਚ ਇੱਕ ਕਾਰਗਰ ਸੰਵਾਦ ਨੂੰ ਪ੍ਰੋਤਸਾਹਿਤ ਕਰਦੀ ਹੈ।
ਇਹ ਦਿਖਾਇਆ ਕਿ ਤੇਜ਼ੀ, ਸੁਰੱਖਿਆ ਅਤੇ ਵਪਾਰਕरण ਦੇ ਟੱਕਰ ਵਿੱਚ ਗਵਰਨੈਂਸ ਕਿੰਨਾ ਨਾਜ਼ੁਕ ਹੋ ਸਕਦਾ ਹੈ। ਮੁੱਖ ਸਬਕ:
ਇਸ ਨੇ ਇਹ ਵੀ ਦਰਸਾਇਆ ਕਿ ਇन्फ੍ਰਾਸਟਰੱਕਚਰ ਅਤੇ ਭਾਈਚਾਰੇ ਦੇ ਨਿਰਭਰਤਾਵਾਂ ਨਾਲ ਪਾਵਰ ਡਾਇਨਾਮਿਕਸ ਕਿਵੇਂ ਬਣਦੇ ਹਨ।
ਇਹ ਪੂਰਾ ਇੰਡਸਟ੍ਰੀ ਰਿਲੀਜ਼ ਚਕ੍ਰ ਅਤੇ ਪਲਾਗ-ਇਨ ਬਦਲਾਅ ਵੱਲ ਧੱਕਿਆ ਗਿਆ:
ਕੁੱਲਮਿਲਾ ਕੇ, AI ਹੁਣ ਉਤਪਾਦ ਤੇਜ਼ੀ, ਸਪਲਾਇ ਚੇਨ ਸੀਮਾਵਾਂ ਅਤੇ ਗਵਰਨੈਂਸ ਦੀ ਇੱਕੇ ਥਾਂ ਲੋੜ ਰੱਖਦਾ ਹੈ।
ਕੁਝ ਪ੍ਰਯੋਗਿਕ ਸਬਕ:
ਕੀ ਦੇਖਣਾ ਹੈ:
ਸਿਰਫ਼ ਖਬਰਾਂ 'ਤੇ ਨਿਰਭਰ ਨਾ ਰਹੋ—ਆਪਣੇ ਲਈ ਉਹ ਸੰਕੇਤ ਵੇਖੋ ਜੋ ਤੁਸੀਂ ਜਾਂਚ ਸਕਦੇ ਹੋ।