Elon Musk ਇੱਕੋ ਸਮੇਂ AI ਬਣਾਉਂਦਾ ਹੈ ਅਤੇ ਲੋਕਾਂ ਨੂੰ ਚੇਤਾਵਨੀ ਦਿੰਦਾ ਹੈ। ਮੁੱਖ ਪਲ, ਸੰਭਾਵਿਤ ਪ੍ਰੇਰਣਾਵਾਂ, ਅਤੇ ਇਸ ਮਿਲੇ-ਜੁਲੇ ਸੁਨੇਹੇ ਦਾ AI ਨੀਤੀ ਲਈ ਕੀ ਮਤਲਬ ਹੈ, ਦੀ ਸਮੀਖਿਆ ਕਰੋ।

Elon Musk ਬਾਰੇ AI ਸਿਰਲੇਖ ਅਕਸਰ ਦੋ ਵੱਖ-ਵੱਖ ਕਹਾਣੀਆਂ ਵਾਂਗ ਲੱਗਦੇ ਹਨ: ਇੱਕ ਜਿਸ ਵਿੱਚ ਉਹ AGI ਖਤਰੇ ਅਤੇ AI ਸੁਰੱਖਿਆ ਬਾਰੇ ਚੇਤਾਵਨੀ ਦਿੰਦਾ ਹੈ, ਅਤੇ ਦੂਜੀ ਜਿਸ ਵਿੱਚ ਉਹ ਸ਼ਕਤੀਸ਼ਾਲੀ AI ਪ੍ਰਣਾਲੀਆਂ ਦਾ ਵਿੱਤਪੋਸ਼ਣ, ਸ਼ੁਰੂਆਤ ਅਤੇ ਪ੍ਰਚਾਰ ਕਰਦਾ ਹੈ। ਆਮ ਪਾਠਕਾਂ ਲਈ ਇਹ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿਉਂਕਿ ਜਿਹੜੇ ਲੋਕ AI ਬਣਾਉਂਦੇ ਹਨ ਉਹ ਨਿਯਮ, ਕਹਾਣੀ ਅਤੇ ਉਹ ਰਫ਼ਤਾਰ ਵੀ ਤੈਅ ਕਰਦੇ ਹਨ ਜਿਸ ਨਾਲ ਇਹ ਸੰਦ ਕਾਰਜਸਥਲਾਂ, ਸਕੂਲਾਂ, ਗੱਡੀਆਂ ਅਤੇ ਫੋਨਾਂ ਵਿੱਚ ਆਉਂਦੇ ਹਨ।
ਪੈਰਾਡਾਕਸ ਸਿਧਾ ਹੈ: Musk ਦਲੀਲ ਕਰਦਾ ਹੈ ਕਿ ਉੱਚ ਪੱਧਰ ਦੀ AI ਖਤਰਨਾਕ ਹੋ ਸਕਦੀ ਹੈ ਜਿਸ ਲਈ ਕਠੋਰ ਨਿਯੰਤਰਣ ਦੀ ਲੋੜ ਹੋਵੇਗੀ, ਪਰ ਉਹ ਖੁਦ ਵੀ AI ਵਿਕਾਸ ਨੂੰ ਤੇਜ਼ ਕਰਦਾ ਹੈ—ਕੰਪਨੀਆਂ, ਜਨਤਕ ਮੁਹਿੰਮਾਂ ਅਤੇ ਮੁਕਾਬਲਤਮਕ ਦਬਾਅ ਰਾਹੀਂ। ਜੇ ਤੁਸੀਂ AI ਗਵਰਨੈਂਸ ਨੂੰ ਸਮਝਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੇ ਹੋ, ਤਾਂ ਇਹ ਟਕਰਾਅ ਇੱਕ ਸਵਾਲ ਪੈਦਾ ਕਰਦਾ ਹੈ: ਸੁਨੇਹਾ “ਧੀਮੇ ਹੋਵੋ” ਹੈ ਜਾਂ “ਬਣਾੳ਼ੋਂ ਤੇਜ਼ ਤਾਂ ਜੋ ਅਸੀਂ ਹਾਰ ਨ ਜਾਈਏ”?
ਇਹ ਪੋਸਟ “ਤੇਜ਼ ਕਰਨ ਬਨਾਮ ਚੇਤਾਵਨੀ” ਵਿਵਾਦ ਨੂੰ ਜਨਤਕ ਰਿਕਾਰਡ ਵਿੱਚ ਦਿਖਣ ਵਾਲੇ ਰੁਝਾਨ ਵਜੋਂ ਦੇਖਦੀ ਹੈ, ਨਾ ਕਿ ਨਿੱਜੀ ਮਨੋਭਾਵ ਬਾਰੇ ਅਨੁਮਾਨ। ਅਸੀਂ ਜਨਤਕ ਕਾਰਵਾਈਆਂ (ਫਾਉਂਡਿੰਗ, ਨਿਵੇਸ਼, ਉਤਪਾਦ ਲਾਂਚ, ਮੁਕੱਦਮੇ, ਖ਼ਤ) ਦੀ ਤੁਲਨਾ ਜਨਤਕ ਬਿਆਨਾਂ (ਇੰਟਰਵਿਊ, ਪੋਸਟ, ਅਤੇ ਫਾਰਮਲ ਟਿੱਪਣੀਆਂ) ਨਾਲ ਕਰਾਂਗੇ ਅਤੇ ਇਸ ਗੱਲ 'ਤੇ ਧਿਆਨ ਦੇਵਾਂਗੇ ਕਿ ਇਹ ਕੀ ਪ੍ਰਾਥਮਿਕਤਾ ਦਰਸਾਉਂਦੀਆਂ ਹਨ।
ਇਸ ਨੂੰ ਉਪਯੋਗੀ ਅਤੇ ਨਿਆਇਪੂਰਕ ਰੱਖਣ ਲਈ:
ਅੰਤ ਤੱਕ, ਤੁਸੀਂ ਯੋਗ ਹੋਵੋਗੇ:
ਅਗਲੇ ਭਾਗ ਵਿੱਚ ਅਸੀਂ ਚਰਚਾ ਨੂੰ ਇੱਕ ਸੰਖੇਪ ਟਾਈਮਲਾਈਨ ਨਾਲ ਧਰਤੀ ਤੇ ਲਿਆਂਦੇਗੇ।
Elon Musk ਦਾ AI ਨਾਲ ਰਿਸ਼ਤਾ ਇਕ ਸਥਿਰ ਸਥਿਤੀ ਨਹੀਂ ਰਿਹਾ। ਇਹ ਮਿਲਦੇ-ਜੁਲਦੇ ਰੋਲਾਂ ਦਾ ਸੈੱਟ ਹੈ—ਨਿਵੇਸ਼, ਸਥਾਪਨਾ, ਮੁਕਾਬਲਾ, ਅਤੇ ਚੇਤਾਵਨੀ—ਜੋ ਬਦਲਦੇ ਸੰਦਰਭ ਅਤੇ ਜਨਤਕ ਝਗੜਿਆਂ ਨਾਲ ਸੰਵਰਦਾ ਹੈ।
ਜਦੋਂ AI ਅਜਿਹਾ ਵਿਸ਼ਾ ਨਹੀਂ ਬਣਿਆ ਸੀ ਜੋ ਹਰ ਇਕ ਦੇ ਮੂੰਹ 'ਤੇ ਹੋਵੇ, Musk ਪਹਿਲਾਂ ਹੀ ਇਸ ਬਾਰੇ ਜਨਤਕ ਤੌਰ 'ਤੇ ਗੱਲ ਕਰ ਰਿਹਾ ਸੀ ਅਤੇ ਆਧੁਨਿਕ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਬਣਾ ਰਹੇ ਲੋਕਾਂ ਨਾਲ ਜੁੜ ਰਿਹਾ ਸੀ। ਉਸ ਦਾ ਢੰਗ ਸਮਰੱਥਾ ਲੈ ਕੇ ਆਸ਼ਾਵਾਦ ਅਤੇ ਦੂਸਰੇ ਪਾਸੇ ਲੰਬੇ ਸਮੇਂ ਦੀ ਨਿਗਰਾਨੀ ਅਤੇ ਨਿਯੰਤਰਨ ਬਾਰੇ ਚਿੰਤਾ ਦਾ ਮਿਲਾਪ ਸੀ।
2015 ਵਿੱਚ, Musk ਨੇ OpenAI ਨੂੰ ਇੱਕ ਗੈਰ-ਮੁਨਾਫਾ ਰਿਸਰਚ ਲੈਬ ਵਜੋਂ ਸ਼ੁਰੂ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕੀਤੀ, ਜੋ ਅਕਸਰ ਬੰਦ, ਕਾਰਪੋਰੇਟ AI ਵਿਕਾਸ ਦੇ ਵਿਰੋਧ ਵਜੋਂ ਦਰਸਾਇਆ ਜਾਂਦਾ ਹੈ। ਇੰਟਰਵਿਊਆਂ ਅਤੇ ਪੋਸਟਾਂ ਵਿੱਚ ਆਮ ਤੌਰ 'ਤੇ ਦਰਸਾਏ ਗਏ ਉਦੇਸ਼ ਸਨ:
Musk ਨੇ 2018 'ਚ OpenAI ਦੀ ਬੋਰਡ ਤੋਂ ਹਟਣਾ ਚੁਣਿਆ। ਜਨਤਕ ਵਜ੍ਹਾਵਾਂ ਵਿੱਚ Tesla ਦੇ ਆਪਣੇ AI ਅਤੇ autonomy ਕੰਮ ਦੇ ਵਧਣ ਨਾਲ conflict-of-interest ਨੂੰ ਜ਼ਾਹਰ ਕੀਤਾ ਗਿਆ। ਉਸ ਤੋਂ ਬਾਅਦ, ਉਸ ਦੀਆਂ ਟਿੱਪਣੀਆਂ OpenAI ਬਾਰੇ ਸਮਰਥਕ ਤੋਂ ਤੀਖੀਆਂ ਹੋ ਗਈਆਂ—ਖ਼ਾਸ ਕਰਕੇ ਜਦੋਂ ਸੰਸਥਾ ਵਪਾਰਕ ਸਾਂਝੇਦਾਰੀਆਂ ਅਤੇ ਉਪਭੋਗਤਾ ਉਤਪਾਦ ਵਧਾਉਂਦੀ ਗਈ।
ਜਿਵੇਂ-ਜਿਵੇਂ generative AI ਨੇ ਜਨਤਕ ਧਿਆਨ ਖਿੱਚਿਆ, Musk ਨੇ ਸਖ਼ਤ ਨਿਗਰਾਨੀ ਅਤੇ ਗਵਰਨੈਂਸ ਲਈ ਕਹਾਣੀਆਂ ਨੂੰ ਤੇਜ਼ ਕੀਤਾ। ਉਸ ਨੇ ਉੱਚ-ਦ੍ਰਿਸ਼ਟੀ ਵਾਲੇ ਯਤਨਾਂ ਨੂੰ ਸਹਿਯੋਗ ਦਿੱਤਾ ਜੋ ਅਗ੍ਰਾਨੀ ਪ੍ਰਣਾਲੀਆਂ ਅਸੁਰੱਖਿਆ ਬਾਰੇ ਚੇਤਾਵਨੀ ਦੇ ਰਹੀਆਂ ਸਨ, ਜਿਸ ਵਿੱਚ 2023 ਦੀ ਵਿਵਾਦਿਤ “pause” ਚਰਚਾ ਵੀ ਸ਼ਾਮਿਲ ਹੈ।
Musk ਨੇ 2023 ਵਿੱਚ xAI ਦੀ ਘੋਸ਼ਣਾ ਕੀਤੀ, ਜਿਸ ਨੂੰ ਇੱਕ ਨਵੇਂ ਮੁਕਾਬਲਾਅੀ ਫਰੰਟੀਅਰ ਲੈਬ ਵਜੋਂ ਪੇਸ਼ ਕੀਤਾ ਗਿਆ। ਇੱਥੇ ਟਕਰਾਅ ਸਭ ਤੋਂ ਜ਼ਿਆਦਾ ਨਜ਼ਰ ਆਉਂਦੀ ਹੈ: AI ਖਤਰੇ ਬਾਰੇ ਚੇਤਾਵਨੀਆਂ ਜਾਰੀ ਰਹੀਆਂ, ਜਦਕਿ ਨਿਵੇਸ਼, ਭਰਤੀ, ਅਤੇ ਉਤਪਾਦ ਦੇ ਦੁਹਰਾਵਾਂ ਤੇਜ਼ ਹੋ ਰਹੇ ਸਨ।
ਇਹ ਸਭ ਮਾਈਲ ਸਟੋਨ ਵਿੱਚ, ਦਿੱਤੇ ਗਏ ਥੀਮ (ਸੁਰੱਖਿਆ, openness, ਮੋਨੋਪੋਲੀ ਤੋਂ ਬਚਾਅ) ਪਛਾਣਯੋਗ ਰਹੇ, ਪਰ ਮਾਹੌਲ ਬਦਲ ਗਿਆ। AI ਨੇ ਰਿਸਰਚ ਤੋਂ ਬਾਜ਼ਾਰ ਤੱਕ ਪਦਾਰਥ ਬਣ ਕੇ ਨੀਤੀ ਅਤੇ ਰਾਜਨੀਤਿ ਵਿਚ ਸਿੱਧਾ ਪ੍ਰਭਾਵ ਪਾਇਆ। ਇਹ ਬਦਲਾਅ ਦਾਰਸ਼ਨਿਕ ਚਿੰਤਾਵਾਂ ਨੂੰ ਵਪਾਰਕ ਅਤੇ ਰਾਜਨੀਤਕ ਟਕਰਾਅ ਵਿੱਚ ਬਦਲ ਦਿੱਤਾ—ਅਤੇ ਹਰ ਨਵੀਂ ਘੋਸ਼ਣਾ ਇੱਕੋ ਸਮੇਂ ਚੇਤਾਵਨੀ ਅਤੇ ਬੇਟ ਵਾਂਗ ਮਹਿਸੂਸ ਹੋਣ ਲੱਗੀ।
Musk ਨੂੰ ਆਮ ਤੌਰ 'ਤੇ OpenAI ਦਾ ਇੱਕ ਸ਼ੁਰੂਆਤੀ ਸਮਰਥਕ ਅਤੇ ਉਸਦੀ ਸਥਾਪਨਾ ਦੇ ਮਕਸਦ ਬਾਰੇ ਇੱਕ ਪ੍ਰਮੁੱਖ ਸਵਰ ਵਜੋਂ ਵਰਣਨ ਕੀਤਾ ਜਾਂਦਾ ਹੈ: ਉੱਚ-ਦੱਬਾਅ ਵਾਲੀ AI ਨੂੰ ਇਸ ਤਰੀਕੇ ਨਾਲ ਬਣਾਉਣਾ ਜੋ ਲੋਕਤਾਂਤਰਿਕ ਤੌਰ 'ਤੇ ਲਾਭਦਾਇਕ ਹੋਵੇ ਨਾ ਕਿ ਇਕ ਹੀ ਕੰਪਨੀ ਲਈ। ਜਨਤਕ ਵਿਆਖਿਆਵਾਂ ਵਿੱਚ ਉਹ ਸ਼ੁਰੂਆਤੀ ਫਰੇਮਵਰਕ openness, safety-minded ਰਿਸਰਚ, ਅਤੇ ਸੰਕੁਚਿਤ ਕੰਪਨੀ ਕੰਟਰੋਲ ਦੇ ਵਿਰੋਧ ਵੱਜੋਂ ਜ਼ਿਆਦਾ ਜ਼ਿਕਰ ਕੀਤਾ ਗਿਆ।
Musk ਨੇ ਬਾਅਦ ਵਿੱਚ OpenAI ਤੋਂ ਦੂਰੀ ਬਣਾਈ। ਜਨਤਕ ਚਰਚਾ ਵਿੱਚ ਦਿੱਤੀਆਂ ਵਜ੍ਹਾਂ ਵੱਖ-ਵੱਖ ਰਹੀਆਂ: ਗਵਰਨੈਂਸ ਵਿੱਚ ਅਸਹਿਮਤੀ, ਦਿਸ਼ਾ ਅਤੇ ਰਫ਼ਤਾਰ 'ਤੇ ਫਰਕ, ਅਤੇ Tesla ਦੇ ਆਪਣੇ AI ਲਕੜਾਂ ਨਾਲ ਸੰਭਾਵਤ ਟਕਰਾਅ। ਜੋ ਵੀ ਸਹੀ ਮਿਸ਼ਰਣ ਹੋਵੇ, ਬੋਰਡ ਛੱਡਣ ਨਾਲ ਇਕ ਲੰਬਾ ਧਾਰਣਾ ਬਣ ਗਿਆ: ਜਦੋਂ ਕੋਈ ਉੱਚ-ਪ੍ਰੋਫ਼ਾਈਲ ਸੰस्थਾਪਕ ਹਟਦਾ ਹੈ ਤਾਂ ਬਾਹਰੀ ਲੋਕ ਅਕਸਰ ਸਮਝਦੇ ਹਨ ਕਿ ਵੰਡ ਘੰਭੀਰ ਦਾਰਸ਼ਨਿਕ ਜਾਂ ਸੁਰੱਖਿਆ ਸੰਬੰਧੀ ਮਸਲੇ ਦਰਸਾਉਂਦੀ ਹੈ—ਭਾਵੇਂ ਅੰਦਰੂਨੀ ਵੇਰਵਾ ਜ਼ਿਆਦਾ ਕਾਰਗਿਰੀ ਹੋਣ।
ਜਿਵੇਂ-ਜਿਵੇਂ OpenAI ਗੈਰ-ਮੁਨਾਫਾ ਸਾਂਚੇ ਤੋਂ capped-profit ਮਾਡਲ ਵੱਲ ਗਿਆ ਅਤੇ ਵਪਾਰਕ ਉਤਪਾਦ ਵਧਾਏ, Musk ਦੀਆਂ ਆਲੋਚਨਾਵਾਂ ਤੇਜ਼ ਹੋ ਗਈਆਂ। ਉਸਦੀ ਟਿੱਪਣੀ 'ਚ ਇਕ ਕੇਂਦਰੀ ਥੀਮ ਇਹ ਸੀ ਕਿ ਇੱਕ ਮਿਸ਼ਨ ਜੋ "open" ਅਤੇ ਵਿਆਪਕ ਲਾਭ ਲਈ ਦੱਸਿਆ ਗਿਆ ਸੀ, ਉਹ ਪੈਮਾਨੇ ਤੇ ਆਉਣ ਤੇ drift ਕਰ ਸਕਦਾ ਹੈ ਜਦੋਂ ਕਿਰਤੀਆਂ ਲਾਗਤਾਂ ਅਤੇ ਮੁਕਾਬਲੇ ਦਾ ਦਬਾਅ ਵੱਧਦਾ ਹੈ।
OpenAI ਦੀ ਵਧਦੀ ਪ੍ਰਭਾਵਸ਼ੀਲਤਾ ਨੇ ਇਸਨੂੰ ਫ੍ਰੰਟੀਅਰ AI 'ਤੇ ਨਿਰਣਯਕ ਸਵਾਲਾਂ ਲਈ ਕੇਂਦਰ ਬਣਾਇਆ: ਕਿਸਦਾ ਕੰਟਰੋਲ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ, ਵਿਕਾਸ ਕਿੰਨੇ ਪਾਰਦਰਸ਼ੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ, ਅਤੇ ਅਮਲੀ ਰੂਪ ਵਿੱਚ "ਸੁਰੱਖਿਆ" ਦਾ ਕੀ ਮਤਲਬ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ।
ਜਨਤਕ ਸਮੱਗਰੀ ਤੋਂ, ਇਹ ਕਹਿਣਾ ਵਾਜਬ ਹੈ ਕਿ Musk ਦੀ ਰੁਖ ਸਚਮੁਚ ਸ਼ਕਤੀਵਾਂ ਦੀ ਕੇਂਦਰਤਾ ਬਾਰੇ ਚਿੰਤਾ ਅਤੇ ਉਸਦੇ ਪੈਰੋਕਾਰ ਨਿਰਮਾਣ ਪ੍ਰੇਰਣਾਵਾਂ ਦਾ ਮਿਕਸ ਹੈ। ਇਹ ਠੀਕ ਨਹੀਂ ਕਿ ਉਸਦੀ ਆਲੋਚਨਾ ਨੂੰ ਦੁਰਚਾਰ ਵਜੋਂ ਜਾਂ ਉਸਦੀ ਸ਼ੁਰੂਆਤ ਨੂੰ ਪਵਿੱਤਰ altruism ਦੇ ਤੌਰ 'ਤੇ ਹੀ ਲਿਆ ਜਾਵੇ। ਇੱਕ ਜ਼ਿਆਦਾ ਦਲਿਲਯੋਗ ਪਾਠ ਇਹ ਹੈ ਕਿ ਨੀਤੀਆਂ ਅਤੇ ਰਣਨੀਤੀਆਂ ਇਕੱਠੇ ਹੋ ਸਕਦੀਆਂ ਹਨ।
xAI Musk ਦੀ ਕੋਸ਼ਿਸ਼ ਹੈ ਇੱਕ ਟੌਪ-ਟੀਅਰ AI ਲੈਬ ਬਣਾਉਣ ਦੀ ਜੋ OpenAI/Google/Meta ਦੇ ਘੇਰੇ ਤੋਂ ਬਾਹਰ ਹੋਵੇ, ਅਤੇ ਉਸਦੇ ਹੋਰ ਕੰਪਨੀਆਂ—ਖ਼ਾਸ ਕਰਕੇ X (ਵਿਤਰਨ ਅਤੇ ਡੇਟਾ ਲਈ) ਅਤੇ Tesla (ਲੰਬੇ ਸਮੇਂ ਦੀ embodiment AI ਅਰਮਾਨ ਲਈ)— ਨਾਲ ਘਣਿਸ਼ਟ ਤੌਰ 'ਤੇ ਜੁੜਿਆ ਹੋਵੇ। ਅਮਲ ਵਿੱਚ, xAI ਨੂੰ ਇੱਕ general-purpose assistant (Grok) ਜਾਰੀ ਕਰਨ ਅਤੇ ਮਾਡਲ ਵਿਕਾਸ ਨੂੰ ਇੱਕ ਨਿਰਧਾਰਤ ਉਪਭੋਗਤਾ ਚੈਨਲ ਨਾਲ ਜੋੜ ਕੇ ਤੇਜ਼ੀ ਨਾਲ iteration ਕਰਨ ਲਈ ਸਥਿਤ ਕੀਤਾ ਗਿਆ ਹੈ।
xAI ਦੀ ਪਿਚ ਅਕਸਰ ਹੋਰ "truth-seeking" ਹੋਣ, ਕਾਰਪੋਰੇਟ ਸੁਨੇਹਿਆਂ ਨਾਲ ਘੱਟ ਰੁਕਾਵਟ ਰੱਖਣ, ਅਤੇ ਅਪਡੇਟ ਜਲਦੀ ਜਾਰੀ ਕਰਨ 'ਤੇ ਜ਼ੋਰ ਦਿੰਦੀ ਹੈ। ਇਹ ਸਿਰਫ ਤਕਨੀਕੀ ਅੰਤਰ ਨਹੀਂ; ਇਹ ਉਤਪਾਦ ਪੋਸਿਸ਼ਨਿੰਗ ਹੈ।
ਮੁਕਾਬਲਾ ਹੇਠ ਲਿਖਿਆ ਵਿੱਚ ਵੀ ਦਰਸਦਾ ਹੈ:
ਇੱਕ ਨਵੀਂ ਫਰੰਟੀਅਰ ਲੈਬ ਦੀ ਸ਼ੁਰੂਆਤ ਅਕਸਰ ਕੁੱਲ ਮਿਲਾ ਕੇ ਖੇਤਰ ਨੂੰ ਤੇਜ਼ ਕਰ ਦਿੰਦੀ ਹੈ। ਇਹ ਕਦਰ-ਯੋਗ ਟੈਲੈਂਟ ਨੂੰ ਇੱਕ ਹੋਰ ਦੌੜ ਵਿੱਚ ਖਿੱਚਦੀ ਹੈ, ਮੁਕਾਬਲੀਆਂ ਨੂੰ ਫੀਚਰ ਜਲਦੀ ਰਿਲੀਜ਼ ਕਰਨ ਲਈ ਪ੍ਰੇਰਿਤ ਕਰਦੀ ਹੈ, ਅਤੇ ਬੇਲਾਈਨ ਉਮੀਦਾਂ ਨੂੰ ਉੱਪਰ ਚੁੱਕਦੀ ਹੈ। ਇੱਕ ਛੋਟਾ ਖਿਡਾਰੀ ਵੀ ਵੱਡੇ ਲੈਬਾਂ ਨੂੰ ਪ੍ਰਤੀਕਿਰਿਆ ਕਰਨ ਲਈ ਮਜਬੂਰ ਕਰ ਸਕਦਾ ਹੈ।
ਇਹੇ acceleration ਦਲੀਲ ਦਾ ਮੁੱਖ ਬਿੰਦੂ ਹੈ: ਇੱਕ ਹੋਰ ਗੰਭੀਰ ਮੁਕਾਬਲਾਅੀ ਖੇਤਰ ਉਹਨਾਂ ਟੀਮਾਂ ਦੀ ਗਿਣਤੀ ਵਧਾ ਦਿੰਦਾ ਹੈ ਜੋ ਇਕੱਠੇ ਸਮੇਂ ਸਮਰੱਥਾ ਨੂੰ ਅੱਗੇ ਵਧਾਉਂਦੀਆਂ ਹਨ।
xAI ਦਾ ਸੁਨੇਹਾ ਅਕਸਰ ਸੁਰੱਖਿਆ ਚਿੰਤਾਵਾਂ ਨੂੰ ਛੇਤੀ-ਛੇਤੀ ਨੋਟ ਕਰਦਾ ਹੈ—ਖ਼ਾਸ ਕਰਕੇ Musk ਦੀ ਲੰਬੇ ਸਮੇਂ ਦੀਆਂ ਚੇਤਾਵਨੀਆਂ ਬਾਰੇ। ਪਰ ਇੱਕ ਸਹਾਇਕ ਉਤਪਾਦ ਦੀ ਅਰਥਵਿਵਸਥਾ ਗਤੀ ਨੂੰ ਇਨਾਮ ਦਿੰਦੀ: ਬਾਰ-ਬਾਰ ਰਿਲੀਜ਼, ਦਲੀਰਤ ਸਮਰੱਥਾਵਾਂ, ਅਤੇ ਧਿਆਨ ਖਿੱਚਣ ਵਾਲੇ ਡੈਮੋ। ਇਹ ਪ੍ਰੇਰਣਾਵਾਂ ਧੀਮੇ, ਜ਼ਿਆਦਾ ਸਾਵਧਾਨ ਤੈਨਾਟੀ ਨਾਲ ਟਕਰਾਅ ਕਰ ਸਕਦੀਆਂ ਹਨ।
ਵੱਧ ਮੁਕਾਬਲਾ ਚੰਗੇ ਉਪਕਰਣ ਅਤੇ ਤੇਜ਼ ਪ੍ਰਗਤੀ ਲਿਆ ਸਕਦਾ ਹੈ। ਇਹ ਖ਼ਤਰਾ ਵੀ ਵਧਾ ਸਕਦਾ ਹੈ—ਟਾਈਮਲਾਈਨਾਂ ਨੂੰ ਸੰਕੁਚਿਤ ਕਰਕੇ, ਟੈਸਟਿੰਗ ਲਈ ਸਮਾਂ ਘਟਾ ਕੇ, ਅਤੇ "ਪਹਿਲਾਂ ਜਾਰੀ ਕਰੋ, ਬਾਅਦ ਵਿੱਚ ਠੀਕ ਕਰੋ" ਵਰਤਾਰਿਆਂ ਨੂੰ ਆਮ ਕਰ ਸਕਦਾ ਹੈ—ਖ਼ਾਸ ਕਰਕੇ ਜਦ hype ਰਣਨੀਤੀ ਦਾ ਹਿੱਸਾ ਬਣ ਜਾਵੇ।
Tesla ਸਭ ਤੋਂ ਵੱਧ ਸਪੱਸ਼ਟ ਉਦਾਹਰਣ ਹੈ ਕਿ Musk ਦੀਆਂ AI ਅਰਮਾਨ ਕੀਮਤਾਂ ਸਕ੍ਰੀਨ ਤੋਂ ਬਾਹਰ ਆ ਕੇ ਰੋਜ਼ਾਨਾ ਜੀਵਨ ਵਿੱਚ ਕਿਵੇਂ ਦਿਖਾਈ ਦਿੰਦੀਆਂ ਹਨ। ਚੈਟਬੋਟਾਂ ਦੇ ਉਦਾਹਰਨਾਂ ਦੇ ਉਲਟ, ਗੱਡੀ ਦਾ “ਮਾਡਲ ਆਉਟਪੁੱਟ” ਇੱਕ ਪੈਰਾ ਨਹੀਂ ਹੁੰਦਾ—ਇਹ ਹਾਈਵੇਅ ਤੇ ਸਟੀਅਰਿੰਗ ਅਤੇ ਬ੍ਰੇਕ ਇਨਪੁਟ ਹੋ ਸਕਦਾ ਹੈ। ਇਸ ਨਾਲ autonomy ਇਕ ਉੱਚ-ਦਾਅ ਵਾਲੀ ਪ੍ਰੀਖਿਆ ਬਣ ਜਾਂਦੀ ਹੈ ਕਿ ਕੀ ਤੁਸੀਂ ਤੇਜ਼ ਖੇਡ ਸਕਦੇ ਹੋ ਅਤੇ ਫਿਰ ਵੀ ਜਨਤਕ ਦੀ ਸੁਰੱਖਿਆ ਸੁਰੱਖਿਅਤ ਰੱਖ ਸਕਦੇ ਹੋ।
Tesla ਦਾ ਢੰਗ ਡੇਟਾ-ਸੰਘੀਨ ਲਰਨਿੰਗ 'ਤੇ ਨਿਰਭਰ ਹੈ: ਲੱਖਾਂ ਵਾਹਨ ਅਸਲ ਡ੍ਰਾਈਵਿੰਗ ਵਿਡੀਓ, ਐਜ ਕੇਸ ਅਤੇ ਫੇਲਿਅਰ ਮੋਡ ਜਨਰੇਟ ਕਰਦੇ ਹਨ ਜੋ ਧਿਆਨ ਅਤੇ ਫੈਸਲਾ ਲੈਣ ਨੂੰ ਸੁਧਾਰ ਸਕਦੇ ਹਨ। ਓਵਰ-ਦ-ਏਅਰ ਅਪਡੇਟ ਫਿਰ ਨਵੇਂ ਵਿਹਾਰ ਨੂੰ ਫਲੀਟ ਵਾਪਸ ਭੇਜਦੇ ਹਨ।
ਇਹ ਇੱਕ ਫੀਡਬੈਕ ਲੂਪ ਬਣਾਉਂਦਾ ਹੈ: ਜ਼ਿਆਦਾ ਕਾਰਾਂ → ਜ਼ਿਆਦਾ ਡੇਟਾ → ਤੇਜ਼ ਮਾਡਲ ਸੁਧਾਰ। ਇਹ ਯਾਦ ਦਿਲਾਉਂਦਾ ਹੈ ਕਿ “AI ਪ੍ਰਗਤੀ” ਸਿਰਫ ਚੁਸਤ algorithm ਨਹੀਂ; ਇਹ ਪੈਮਾਨੇ 'ਤੇ ਤੈਨਾਤੀ ਹੈ।
ਇੱਕ ਮੁੜ-ਦੋਹਰਾਈਂ ਵਾਲੀ ਗੁੱਮਰਾਹੀ ਇਹ ਹੈ ਕਿ ਇਹ ਦੋ ਵੱਖ-ਵੱਖ ਚੀਜ਼ਾਂ ਹਨ:
ਸੁਰੱਖਿਆ ਪ੍ਰਭਾਵ ਬਹੁਤ ਵੱਖ-ਵੱਖ ਹੁੰਦੇ ਹਨ। ਜੇ ਕੋਈ ਉਤਪਾਦ ਅਮਲੀ ਤੌਰ 'ਤੇ ਪੂਰੀ autonomy ਵਾਂਗ ਵਰਤਿਆ ਜਾਵੇ—ਇਸ ਲਈ ਕਿ ਉਨ੍ਹਾਂ ਨੇ ਇਸਨੂੰ ਉਸ ਤਰ੍ਹਾਂ ਦਿਖਾਇਆ—ਭਾਵੇਂ ਇਹ ਪ੍ਰਣਾਲੀ ਵਾਸਤਵ ਵਿੱਚ ਉਸ ਸਮਰੱਥਾ ਦੀ ਨਾ ਹੋਵੇ, ਤਾਂ ਖਤਰਿਆਂ ਵਿੱਚ ਤੇਜ਼ੀ ਨਾਲ ਵਾਧਾ ਹੋ ਜਾਂਦਾ ਹੈ।
ਗੱਡੀਆਂ ਵਿੱਚ AI ਲਗਾਉਣ ਨਾਲ ਉਹ ਬੰਧਨ ਆਉਂਦੇ ਹਨ ਜੋ ਸਿਰਫ ਸੌਫਟਵੇਅਰ-ਕੇਵਲ AI ਹਟ ਸਕਦਾ ਹੈ:
Tesla ਇੱਕ ਵੱਡੀ ਟਕਰਾਅ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ: ਤੇਜ਼ ਰਿਲੀਜ਼ਿੰਗ ਸਿਸਟਮਾਂ ਨੂੰ ਫੀਡਬੈਕ ਰਾਹੀਂ ਸੁਧਾਰ ਸਕਦੀ ਹੈ, ਪਰ ਭੌਤਿਕ ਦੁਨੀਆਂ ਵਿੱਚ ਰੋਕ-ਟੋਕ ਨਾ ਹੋਣ ਵਾਲੀਆਂ ਗਾਰਡਰੇਲਜ਼ ਉਤਪਾਦ ਦਾ ਹਿੱਸਾ ਹੋਣੇ ਲਾਜ਼ਮੀ ਹਨ।
Neuralink ਅਕਸਰ Musk ਦੀਆਂ AI ਚੇਤਾਵਨੀਆਂ ਨਾਲ ਇਕੱਠੇ ਚਰਚੇ ਵਿੱਚ ਆਉਂਦੀ ਹੈ ਕਿਉਂਕਿ ਇਹ ਇੱਕ ਲੰਬੀ-ਮਿਆਦੀ ਦਾਅਵਾ ਨਾਲ ਮਿਲਦੀ ਹੈ: ਜੇ AI ਪ੍ਰਣਾਲੀਆਂ ਬਹੁਤ ਸਮਰੱਥ ਹੋ ਜਾਣ, ਤਾਂ ਮਨੁੱਖ ਹੋ ਸਕਦੈ ਕੇ "ਸਮਰੱਥਤਾ ਰੱਖਣ" ਲਈ ਆਪਣੇ ਕੰਪਿਊਟਰ ਨਾਲ ਸੰਪਰਕ ਵਧਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨ।
xAI ਜਾਂ Tesla autonomy ਦੇ ਉਲਟ, Neuralink ਮੁੱਖ ਰੂਪ ਵਿੱਚ ਇੱਕ ਸਮਰੱਥ ਮਾਡਲ ਬਣਾਉਣ ਬਾਰੇ ਨਹੀਂ; ਇਹ ਇੱਕ ਦਿਮਾਗ ਅਤੇ ਕੰਪਿਊਟਰ ਦੇ ਵਿਚਕਾਰ ਸਿੱਧਾ ਕਨੈਕਸ਼ਨ ਬਣਾਉਣ ਬਾਰੇ ਹੈ—ਇੱਕ human–machine interface ਜੋ ਸਿਧਾਂਤਕ ਤੌਰ 'ਤੇ ਟਾਈਪਿੰਗ, ਸਵਾਈਪਿੰਗ ਜਾਂ ਬੋਲਣ ਤੋਂ ਬਹੁਤ ਉੱਚਾ ਬੈਂਡਵਿਡਥ ਦਿੰਦਾ।
Neuralink ਦੇ ਜਨਤਕ ਬਿਆਨਾਂ ਅਤੇ ਰਿਪੋਰਟਿੰਗ ਵਿੱਚ ਮੁੱਖ ਤੌਰ 'ਤੇ ਮੈਡੀਕਲ ਉਪਯੋਗਤਾ ਤੇ ਧਿਆਨ ਦਿੱਤਾ ਗਿਆ—ਉਦਾਹਰਣ ਲਈ ਪੈਰਾਲਾਈਸਿਸ ਵਾਲੇ ਲੋਕਾਂ ਨੂੰ cursor ਕਨਟਰੋਲ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਨ ਵਾਲੀਆਂ ਤਕਨੀਕਾਂ—ਜਿਹੜੀਆਂ implanted hardware ਅਤੇ neural signals ਨੂੰ decode ਕਰਨ ਵਾਲੇ ਸਾਫਟਵੇਅਰ ਨੂੰ ਸ਼ਾਮਿਲ ਕਰਦੀਆਂ ਹਨ।
ਇਹ ਦੋ ਤਰੀਕਿਆਂ ਨਾਲ AI-ਨਜ਼ਦੀਕ ਹੈ:
ਜਦ Musk ਦਿਮਾਗ–ਕੰਪਿਊਟਰ ਇੰਟਰਫੇਸ ਨੂੰ ਮਨੁੱਖਾਂ ਨੂੰ “ਪੀਛੇ ਨਾ ਛੱਡੇ ਜਾਣ” ਤੋਂ ਬਚਾਉਣ ਵਾਲਾ ਕਹਿੰਦਾ ਹੈ, ਤਾਂ ਇਹ ਗੱਲਬਾਤ ਨੂੰ "AI ਰੋਕਣ" ਤੋਂ "ਮਨੁੱਖਾਂ ਨੂੰ ਅਨੁਕੂਲ ਕਰਨਾ" ਵੱਲ ਖਿਸਕਾਉਂਦਾ ਹੈ।
ਇਸਦਾ ਅਰਥ ਇਹ ਹੈ ਕਿ ਤੇਜ਼ AI ਪ੍ਰਗਤੀ ਲਾਜ਼ਮੀ ਹੈ, ਅਤੇ ਸਭ ਤੋਂ ਵਧੀਆ ਜਵਾਬ ਹੋਰ ਖੇਤਰਾਂ (ਹਾਰਡਵੇਅਰ, ਇੰਟਰਫੇਸ, ਇਨਸਾਨੀ ਅਗਮੈਂਟੇਸ਼ਨ) ਵਿੱਚ ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧਣਾ ਹੋ ਸਕਦਾ ਹੈ। ਕੁਝ ਦਰਸ਼ਕਾਂ ਲਈ, ਇਹ ਚੇਤਾਵਨੀਆਂ ਜਾਂ ਨਿਯੰਤਰਣ ਦੀਆਂ ਮੰਗਾਂ ਨੂੰ ਅਸਥਾਈ ਰੁਕਾਵਟਾਂ ਵਾਂਗ ਮਹਿਸੂਸ ਕਰਵਾ ਸਕਦੀ ਹੈ ਨਾ ਕਿ ਲਾਜ਼ਮੀ ਰੋਕ।
Neural implants ਆਪਣੇ ਖਾਸ ਖਤਰੇ ਲੈ ਕੇ ਆਉਂਦੇ ਹਨ—ਸੁਰੱਖਿਆ ਟੈਸਟਿੰਗ, informed consent, ਨਿਊਰਲ ਡੇਟਾ ਦੀ ਪਰਦੇਦਾਰੀ, ਅਤੇ ਲੰਬੇ ਸਮੇਂ ਦੀ ਡਿਵਾਇਸ ਭਰੋਸੇਯੋਗਤਾ। ਇਹ "AI ਸੁਰੱਖਿਆ" ਤੋਂ ਵੱਖ ਨਹੀਂ ਹਨ; ਇਹ ਇੱਕ ਵੱਡੇ ਗਵਰਨੈਂਸ ਸਵਾਲ ਦਾ ਹਿੱਸਾ ਹਨ: ਅਸੀਂ ਐਸੀਆਂ ਉੱਚ-ਪ੍ਰਭਾਵਸ਼ੀਲ ਤਕਨੀਕਾਂ ਨੂੰ ਕਿਵੇਂ ਅੰਕਿਤ ਕਰਦੇ ਹਾਂ ਜਿਨ੍ਹਾਂ ਨੂੰ ਵਿਆਪਕਤਾ ਦੇ ਬਾਅਦ ਵਾਪਸ ਰੋਕਣਾ ਮੁਸ਼ਕਿਲ ਹੋ ਜਾਂਦਾ ਹੈ?
ਦਾਅਵੇ ਸੰਭਲ ਕੇ ਰਖਣੇ ਆਵਸ਼ਯਕ ਹਨ: ਜਨਤਕ ਰਿਕਾਰਡ ਮਹਤਵਪੂਰਣ ਮਨਸੂਬੇ ਅਤੇ ਸ਼ੁਰੂਆਤੀ ਕਦਮਾਂ ਦਾ ਸਮਰਥਨ ਕਰਦਾ ਹੈ, ਪਰ ਇਹ ਨਹੀਂ ਦਿਖਾਉਂਦਾ ਕਿ ਦਿਮਾਗੀ ਇੰਪਲਾਂਟ AGI ਖਤਰੇ ਦਾ ਨਿਖਰਿਆ ਹੱਲ ਨੇੜੇ ਭਵਿੱਖ ਵਿੱਚ ਹਨ।
Musk ਦੀਆਂ AI ਚੇਤਾਵਨੀਆਂ ਆਵਾਜ਼ ਵਿੱਚ ਇਕ ਜੈਸੀ ਰਹਿੰਦੀਆਂ ਹਨ: ਉਹ ਅਕਸਰ ਉੱਤਰੀ ਤੌਰ 'ਤੇ advanced AI ਨੂੰ ਇਕ ਸੰਭਾਵਿਤ ਸਭਿਆਚਾਰਕ ਜਾਂ ਅਸਤਿਤਵਕ ਖਤਰਾ ਵਜੋਂ ਦਰਸਾਉਂਦਾ ਹੈ, ਅਤੇ ਦਲੀਲ ਕਰਦਾ ਹੈ ਕਿ ਸਮਾਜ ਸਪੱਸ਼ਟ ਨਿਯਮਾਂ ਤੋਂ ਬਿਨਾਂ ਬਹੁਤ ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧ ਰਿਹਾ ਹੈ।
ਇੰਟਰਵਿਊਆਂ ਅਤੇ ਟਾਕਾਂ ਵਿੱਚ Musk ਨੇ ਕਈ ਵਾਰੀ ਇਹ ਸੁਝਾਇਆ ਹੈ ਕਿ ਕਾਫੀ ਸਮਰੱਥ AI ਕੰਟਰੋਲ ਕਰਨ ਲਈ ਕਠਿਨ ਹੋ ਸਕਦੀ ਹੈ, ਅਤੇ ਉਹਨਾਂ ਸਥਿਤੀਆਂ ਦੀਆਂ ਮਿਸਾਲਾਂ ਦਿੱਤੀਆਂ ਜਿੱਥੇ ਇੱਕ AI ਮਨੁੱਖੀ ਰੁਚੀਆਂ ਦੇ ਵਿਰੁੱਧ ਲੱਖਿਆ ਪਾਲਣ ਕਰ ਸਕਦੀ ਹੈ। ਉਹ ਅਕਸਰ ਇਸਨੂੰ ਕੰਟਰੋਲ ਸਮੱਸਿਆ (ਜੋ ਅਕਸਰ "alignment" ਵਜੋਂ ਚਰਚਿਤ ਹੁੰਦੀ ਹੈ) ਦੇ ਤੌਰ 'ਤੇ ਦਰਸਾਉਂਦਾ ਹੈ: ਸਿਸਟਮ ਜਿਸਨੂੰ ਮਦਦ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੋਵੇ ਵੀ ਨੁਕਸਾਨ ਕਰ ਸਕਦਾ ਹੈ ਜੇ ਲਕਸ਼ਾਂ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਨਿਰਧਾਰਿਤ ਕੀਤੇ ਗਏ ਹੋਣ ਜਾਂ ਜੇ ਇਹ ਅਣਉਮੀਦ ਤਰੀਕਿਆਂ ਨਾਲ ਉਨ੍ਹਾਂ ਨੂੰ ਹਾਸਲ ਕਰ ਲੈਂਦਾ ਹੈ।
Musk ਨੇ ਇਹ ਚਿੰਤਾਵਾਂ ਕੇਵਲ ਸਿਧੇ ਬਿਆਨਾਂ ਤੱਕ ਸੀਮਿਤ ਨਹੀਂ ਰੱਖੀਆਂ। ਉਸ ਨੇ:
ਉਸ ਦੀਆਂ ਜਨਤਕ ਚੇਤਾਵਨੀਆਂ ਅਕਸਰ ਤਿੰਨ ਸਮੂਹਾਂ ਵਿੱਚ ਆਉਂਦੀਆਂ ਹਨ:
ਇੱਕ ਮੁੱਖ ਨੁਕਤਾ: Musk ਅਕਸਰ ਸਭ ਤੋਂ ਡਰਾਉਣੀ ਭਾਸ਼ਾ ਲੰਬੇ ਮਿਆਦ ਵਾਲੇ AGI ਖਤਰੇ ਲਈ ਵਰਤਦਾ ਹੈ, ਪਰ ਜ਼ਿਆਦਾ ਲੋਕ ਪਹਿਲਾਂ ਜਿਹੜੇ ਨੁਕਸਾਨ ਦੇਖਦੇ ਹਨ ਉਹ ਛੋਟੇ-ਮਿਆਦ ਵਾਲੇ (ਦੁਰਵਿਉਹਾਰ ਅਤੇ ਤੈਨਾਤੀ ਫੇਲ) ਹੁੰਦੇ ਹਨ। ਇਹ ਪਛਾਣਨ ਨਾਲ ਇਹ ਪਹੁੰਚ ਆਸਾਨ ਹੋ ਜਾਂਦੀ ਹੈ ਕਿ ਦਿੱਤੀ ਗਈ ਚੇਤਾਵਨੀ ਕਿਸ ਸ਼੍ਰੇਣੀ ਨੂੰ ਨਿਸ਼ਾਨਾ ਬਣਾਉਂਦੀ ਹੈ।
ਇਹ ਸੰਭਵ ਹੈ ਕਿ Musk ਦੀਆਂ ਚੇਤਾਵਨੀਆਂ ਨੂੰ ਗੰਭੀਰਤਾ ਨਾਲ ਲਿਆ ਜਾਵੇ ਅਤੇ ਫਿਰ ਵੀ ਦੇਖਿਆ ਜਾਵੇ ਕਿ ਉਹ ਕਿਉਂ AI ਨੂੰ ਅੱਗੇ ਵਧਾਉਂਦਾ ਹੈ। "ਨਿਰਮਾਤਾ" ਅਤੇ "ਚੇਤਾਵਨੀ" ਦੇ ਰੋਲ ਇਕੱਠੇ ਹੋ ਸਕਦੇ ਹਨ ਜਦੋਂ ਤੁਸੀਂ ਪ੍ਰੇਰਣਾਵਾਂ ਨੂੰ ਧਿਆਨ ਵਿੱਚ ਰੱਖਦੇ ਹੋ—ਕੁਝ ਆਸਾਨੀ ਨਾਲ ਦਸਤਾਵੇਜ਼ ਕੀਤੇ ਜਾ ਸਕਦੇ ਹਨ, ਹੋਰ ਅਨੁਮਾਨੀ।
ਮੁਕਾਬਲਾ ਅਤੇ ਪੋਜ਼ਿਸ਼ਨਿੰਗ। ਜੇ AI ਇਕ general-purpose ਸਮਰੱਥਾ ਹੈ, ਤਾਂ ਇਸ ਨੂੰ ਬਣਾਉਣਾ ਰੱਖਿਆਈ ਕਦਮ ਵਜੋਂ ਵੇਖਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਮੁਕਾਬਲਾਤਮਕ ਲੈਬਾਂ ਗਤਿ ਨਿਰਧਾਰਤ ਕਰਦੀਆਂ ਹਨ; ਬਾਹਰ ਰਹਿਣ ਦਾ ਮਤਲਬ ਟੈਲੈਂਟ, ਧਿਆਨ, ਅਤੇ ਪ੍ਰਭਾਵ ਖੋਣਾ ਹੋ ਸਕਦਾ ਹੈ। xAI (ਅਤੇ Tesla, X ਵਿੱਚ AI ਦੀ ਬਹਾਲੀ) ਸ਼ੁਰੂ ਕਰਕੇ rivalਾਂ ਦੀਆਂ ਰੋਡਮੈਪਾਂ 'ਤੇ ਨਿਰਭਰਤਾ ਘਟਾਈ ਜਾ ਸਕਦੀ ਹੈ।
ਟੈਲੈਂਟ ਅਤੇ ਪੂੰਜੀ। ਉੱਚ-ਸਟੇਕ ਨੈਰੇਟਿਵ—ਦੋਹਾਂ ਆਸ਼ਾਵਾਦੀ ਅਤੇ ਡਰਾਉਣੇ—ਇੰਜਨੀਅਰਾਂ, ਨਿਵੇਸ਼ਕਾਂ, ਅਤੇ ਸਾਥੀਆਂ ਲਈ AI ਨੂੰ ਮਹੱਤਵਪੂਰਕ ਬਣਾਉਂਦੇ ਹਨ। ਚੇਤਾਵਨੀਆਂ urgency ਵਧਾ ਸਕਦੀਆਂ ਹਨ: "ਇਹ ਮਹੱਤਵਪੂਰਕ ਹੈ; consequential ਕੰਮ ਵਿੱਚ ਸ਼ਾਮਿਲ ਹੋਵੋ।"
ਪਲੇਟਫਾਰਮ ਲੈਵਰੇਜ। ਇੱਕ ਵੱਡੇ ਵੰਡਣ ਚੈਨਲ (X) ਦੇ ਮਾਲਿਕ ਹੋਣ ਨਾਲ ਗਣਨਾ ਬਦਲ ਜਾਂਦੀ ਹੈ। ਜੇ AI ਸਹਾਇਕ, ਖੋਜ, ਅਤੇ ਸਿਫਾਰਸ਼ਾਂ ਮੁੱਖ ਉਤਪਾਦ ਹਨ, ਤਾਂ ਸੋਧਿਆ ਗਿਆ ਮਾਡਲ ਤਿਆਰ ਕਰਨ ਨਾਲ ਵਿਸ਼ੇਸ਼ਤਾ ਅਤੇ ਡੇਟਾ ਲਾਭ ਮਿਲਦੇ ਹਨ।
ਖੇਡ ਦੇ ਨਿਯਮਾਂ ਨੂੰ ਆਕਾਰ ਦੇਣਾ। ਨਿਯਮਾਕਨ ਜਾਂ ਰੋਕਣ ਦੀ ਮੰਗ ਕੁਝ ਨੀਤੀਆਂ ਨੂੰ “ਉਚਿਤ” ਦੇ ਤੌਰ 'ਤੇ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੀ ਹੈ, ਕੌਣ ਮੀਜ਼ 'ਤੇ ਬੈਠਦਾ ਹੈ, ਅਤੇ ਕਿਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਅਮਲ ਸਮੱਗਰੀਆਂ ਲਾਗੂ ਹੁੰਦੀਆਂ ਹਨ। ਸੁਰੱਖਿਆ ਵਜੋਂ ਫਰੇਮ ਕੀਤੇ ਜਾਣ ਵਾਲੇ ਕੁਝ ਪ੍ਰਸਤਾਵ ਨਾ-ਸਿਰਫ ਸੁਰੱਖਿਆ ਨੂੰ ਲਕੜ ਮਾਰ ਸਕਦੇ ਹਨ ਪਰ ਕੁਝ ਢਾਂਚਿਆਂ ਲਈ ਬਰਾਬਰੀ ਵਾਲਾ ਮਾਹੌਲ ਵੀ ਬਣ ਸਕਦੇ ਹਨ (ਲਾਇਸੰਸਿੰਗ, ਆਡਿਟ, compute thresholds)।
ਕਥਾ-ਸ਼ਕਤੀ। Musk ਦਾ ਫਰੇਮਿੰਗ ਅਕਸਰ ਅਸਤਿਤਵਕ ਖਤਰੇ 'ਤੇ ਜ਼ੋਰ ਦਿੰਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਧਿਆਨ ਹੋਰ ਨੀਤੀ ਪ੍ਰਾਥਮਿਕਤਾਵਾਂ (ਰੋਜ਼ਗਾਰ ਮਤਲਬ, ਨਿੱਜਤਾ, ਬਜ਼ਾਰ ਕੇਂਦਰਤਾ) ਤੋਂ ਹਟ ਸਕਦਾ ਹੈ। ਇਹ ਫੋਕਸ ਸਰਕਾਰਾਂ ਦੀਆਂ ਤਰਜੀحات ਨੂੰ ਬਦਲ ਸਕਦਾ ਹੈ ਕਿ ਉਹ ਕੀ ਤੁਰੰਤ ਮਾਨਦੇ ਹਨ।
Musk ਦੇ ਮੁੜ-ਮੁੜ ਆਉਂਦੇ ਵਿਸ਼ੇ—ਸੰਸਥਾਵਾਂ 'ਤੇ ਸਨਕੀ, “open” ਰਵੱਈਏ ਦੀ ਪਸੰਦ, ਅਤੇ free-speech ਫਰੇਮ—ਉਹਨਾਂ ਨੂੰ ਪ੍ਰਤੀਯੋਗੀਆਂ ਅਤੇ ਨਿਯੰਤ੍ਰਕਾਂ ਦੀਆਂ ਆਲੋਚਨਾਵਾਂ ਕਰਨ ਵੇਲੇ ਵੀ ਆਪਣੀ ਨਿਰਮਾਣ ਗਤੀ ਤੇਜ਼ ਰੱਖਣ ਵਿੱਚ ਆਸਾਨੀ ਦੇ ਸਕਦੇ ਹਨ। ਇਹ ਸੰਭਵ ਹੈ, ਪਰ ਜਨਤਕ ਡੇਟਾ ਤੋਂ ਸਬੂਤ ਕਰਨਾ ਮੁਸ਼ਕਿਲ ਹੈ।
ਵਾਜਬ ਨਤੀਜਾ: ਜੋ ਸਾਜ਼ੇ ਦੇਖਣਯੋਗ ਹਨ (ਬਿਜ਼ਨਸ ਬਣਤਰ, ਪਲੇਟਫਾਰਮ ਪ੍ਰੇਰਣਾਵਾਂ, ਮੁਕਾਬਲਾਤਮਕ ਗਤੀਵਿੱਧੀਆਂ) ਨੂੰ ਉਸ ਤੋਂ ਵੱਖ ਕਰੋ ਜੋ ਅੰਦਰੂਨੀ ਮੋਟਿਵ ਹੋ ਸਕਦਾ ਹੈ। ਦੋਹਾਂ ਸਹਿ-ਅਸਤਿਤਵ ਹੋ ਸਕਦੇ ਹਨ: ਸੱਚੀ ਚਿੰਤਾ ਅਤੇ ਤੁਰੰਤ ਬਣਾਉਣ ਦੇ ਮਜ਼ਬੂਤ ਕਾਰਨ।
ਜਦੋਂ ਕੋਈ ਉੱਚ-ਪ੍ਰੋਫ਼ਾਈਲ ਨਿਰਮਾਤਾ ਦੱਸਦਾ ਹੈ ਕਿ AI ਖਤਰਨਾਕ ਹੈ ਅਤੇ ਉਨ੍ਹਾਂ ਨੇ ਇੱਕੋ ਸਮੇਂ ਮਾਡਲ ਅਤੇ ਉਤਪਾਦ ਲਾਂਚ ਕੀਤੇ ਹਨ, ਤਾਂ ਜਨਤਾ ਨੂੰ ਦੋ ਸੰਕੇਤ ਮਿਲਦੇ ਹਨ: "ਇਹ ਜਰੂਰੀ ਹੈ" ਅਤੇ "ਇਹ ਸਧਾਰਣ ਕਾਰੋਬਾਰ ਹੈ"। ਇਹ ਵਿਰੋਧੀ ਸੰਕੇਤ ਰਾਏ ਨੂੰ ਸ਼ਕਤੀਸ਼ਾਲੀ ਢੰਗ ਨਾਲ ਰੂਪਾਂਤਰਨ ਕਰ ਸਕਦੇ ਹਨ—ਅਤੇ ਇਹ ਕਾਨੂੰਨ-ਨਿਰਮਾਤਾ, ਨਿਯੰਤਰਕਾਂ, ਅਤੇ ਸੰਸਥਾਵਾਂ ਉੱਤੇ ਅਸਰ ਪਾਉਂਦੇ ਹਨ।
ਮਿਕਸਡ ਸੁਨੇਹੇ AI ਖਤਰੇ ਨੂੰ ਜਾਂ ਤਾਂ ਅਤਿਰੰਜਿਤ ਜਾਂ ਸਿਆਣੀ-ਭਰੀ ਲਗਾ ਸਕਦੇ ਹਨ। ਜੇ ਸਭ ਤੋਂ ਉੱਚੀ ਆਵਾਜ਼ ਉਹਨਾਂ ਲੋਕਾਂ ਤੋਂ ਆਏ ਜੋ ਤਕਨੀਕ ਨੂੰ ਵਧਾ ਰਹੇ ਹਨ, ਤਾਂ ਕੁਝ ਦਰਸ਼ਕ ਸੋਚ ਸਕਦੇ ਹਨ ਕਿ ਖਤਰਾ marketing ਹੈ, ਇੱਕ ਮੁਕਾਬਲਾਤਮਕ ਚਾਲ, ਜਾਂ rivalਾਂ ਵੱਲ ਰੁਝਾਉਣ ਵਾਲੀ ਰਣਨੀਤੀ। ਹੋਰ ਲੋਕ ਇਸ ਨਤੀਜੇ ਤੇ ਪਹੁੰਚਦੇ ਹਨ ਕਿ ਖਤਰਾ ਗੰਭੀਰ ਹੈ—ਕਿਉਂਕਿ ਨਿਰਮਾਤਾ ਵੀ ਚੇਤਾਵਨੀ ਦਿੰਦੇ ਹਨ।
ਕਿਸੇ ਵੀ ਹਾਲਤ ਵਿੱਚ ਭਰੋਸਾ ਨਾਜੁਕ ਹੁੰਦਾ ਹੈ। ਨਾਜ਼ੁਕ ਭਰੋਸਾ ਨੀਤੀ ਨੂੰ ਧ੍ਰੁਵੀਕਰਤ ਕਰ ਸਕਦਾ ਹੈ: ਇੱਕ ਕੈਂਪ ਨਿਯਮਾਂ ਨੂੰ ਹੜਬੜੀ ਵਜੋਂ ਵੇਖਦਾ ਹੈ; ਦੂਜਾ ਕੈਂਪ ਦੇਰੀ ਨੂੰ ਲਾਪਰਵਾਹੀ ਵਜੋਂ।
ਦੂਜਾ-ਕ੍ਰਮ ਪ੍ਰਭਾਵ ਧਿਆਨ ਹੈ। ਮਸ਼ਹੂਰ ਨਿਰਮਾਤਿਆਂ ਵੱਲੋਂ ਵੱਡੀਆਂ ਚੇਤਾਵਨੀਆਂ AI ਨੂੰ ਮੰਨਨਜ਼ੋਰਨ ਸੁਣਵਾਣੀਆਂ, ਕਾਰਜਕਾਰੀ ਹੁਕਮਾਂ ਅਤੇ ਏਜੰਸੀ ਐਜੈਂਡਿਆਂ ਵਿੱਚ ਧੱਕਾ ਦੇ ਸਕਦੀਆਂ ਹਨ। ਅਣਪੂਰਨ ਸੁਨੇਹਾ ਵਾਲੇ ਵਕਤਾ ਵੀ ਸਰਕਾਰਾਂ ਨੂੰ ਤਕਨੀਕੀ ਮਾਹਿਰਤਾ ਫੰਡ ਕਰਨ, ਰਿਪੋਰਟਿੰਗ ਦੀ ਲੋੜ ਬਣਾਉਣ, ਅਤੇ ਜਵਾਬਦੇਹੀ ਸਪਸ਼ਟੀ ਕਰਨ ਲਈ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੇ ਹਨ।
ਖ਼ਤਰਾ ਇਹ ਹੈ ਕਿ urgency ਬਿਨਾਂ Enforceability—ਪ੍ਰੈਸ ਕਾਨਫਰੰਸ ਅਤੇ ਖ਼ਤ ਜੋ ਲੰਮੇ ਸਮੇਂ ਲਈ ਟਿਕੇ ਨਿਯਮਾਂ ਵਿੱਚ ਨਾ ਬਦਲਣ।
ਮਾਡਰਨ ਮੀਡੀਆ ਟਕਰਾਅ ਨੂੰ ਇਨਾਮ ਦਿੰਦੀ ਹੈ। “Hypocrisy” ਇੱਕ ਸਿਰਲਾਈਨ ਹੈ ਜਿਸਨੂੰ "ਮਿਕਸਡ ਇੰਸੇਂਟਿਵ" ਦੀ ਬਜਾਏ ਬਹੁਤ ਆਸਾਨੀ ਨਾਲ ਟਪਕਾਇਆ ਜਾ ਸਕਦਾ ਹੈ। ਗੁੱਸੇ ਦੇ ਚੱਕਰ ਅਕਸਰ ਪ੍ਰਾਇਗਮਿਕ ਚਰਚਾ ਨੂੰ ਭੁਲਾ ਦਿੰਦੀਆਂ—ਜਿਹੜੇ audits, incident reporting, model evaluation, ਅਤੇ procurement standards ਹਨ—ਜੋ ਨੀਤੀ ਨਿਰਮਾਤਿਆਂ ਨੂੰ ਲੋੜੀਂਦੇ ਸਾਧਨ ਹਨ।
ਜੇ ਤੁਸੀਂ ਐਸਾ ਅੰਕਣ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹੋ ਕਿ ਚੇਤਾਵਨੀਆਂ ਜਨਤਕ ਲਾਭ ਵਿੱਚ ਤਬਦੀਲ ਹੋ ਰਹੀਆਂ ਹਨ ਤਾਂ ਵੈਰੀਫਾਇਏਬਲ ਪ੍ਰਥਾਵਾਂ 'ਤੇ ਧਿਆਨ ਦਿਓ:
ਜਨਤਕ ਭਰੋਸਾ ਵਿਚ ਸੁਧਾਰ ਹੁੰਦਾ ਹੈ ਜਦ ਨਿਰਮਾਤਾ ਆਪਣੀ ਬੋਲਚਾਲ ਨੂੰ ਦੁਹਰਾਵੇਂਗੇਤ ਅਤੇ ਚੈੱਕ ਕੀਤੀਆਂ ਪ੍ਰਕਿਰਿਆਵਾਂ ਨਾਲ ਸਮਰਥਨ ਕਰਦਾ ਹੈ।
"Move fast" ਅਤੇ "be careful" ਦਾ ਮਤਲਬ ਇਹ ਨਹੀਂ ਕਿ ਦੋਹਾਂ ਇਕ ਦੂਜੇ ਦੇ ਵਿਰੁੱਧ ਹਨ। ਜਿੰਮੇਵਾਰ ਤੇਜ਼ੀ ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਉਪਯੋਗੀ AI ਸਿਸਟਮ ਜਾਰੀ ਕਰਨ ਨਾਲ ਨਾਲ ਉਹ ਬਰੇਕ, ਡੈਸ਼ਬੋਰਡ ਅਤੇ ਜਵਾਬਦੇਹੀ ਢਾਂਚੇ ਵੀ ਬਣਾਏ ਜਾਣ ਜੋ ਗੰਭੀਰ ਨੁਕਸਾਨ ਦੀ ਸੰਭਾਵਨਾ ਘਟਾਉਂਦੇ ਹਨ।
ਇੱਕ ਨਿਮਨਤਮ ਮਿਆਰ ਰਿਲੀਜ਼ ਤੋਂ ਪਹਿਲਾਂ ਅਤੇ ਬਾਅਦ ਰੋਜ਼ਾਨਾ ਮੁੱਲਾਂਕਣ ਸ਼ੁਰੂ ਕਰਨ ਨਾਲ ਸ਼ੁਰੂ ਹੁੰਦਾ ਹੈ: hallucinations, cybersecurity ਕਮਜ਼ੋਰੀਆਂ, bias, ਅਤੇ ਖਤਰਨਾਕ ਨਿਰਦੇਸ਼ਾਂ ਲਈ ਟੈਸਟਿੰਗ।
Red-teaming lagaataar ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ, ਇਕ ਵਾਰ ਨਹੀਂ। ਇਸ ਵਿੱਚ ਬਾਹਰੀ ਵਿਸ਼ੇਸ਼ਗਿਆ ਹੋਣੇ ਚਾਹੀਦੇ ਹਨ ਜੋ ਭੁਗਤਾਨ ਕੀਤੇ ਜਾਂ ਅਤੇ ਉੱਚ-ਪੱਧਰੀ ਖੋਜ ਦੇ ਉੱਚ-ਸਤਰ 'ਤੇ ਉੱਚ-ਸਤਰਾਂ ਦੀਆਂ ਉੱਚ-ਜਨਰਲ ਨਤੀਜਾ ਛਪਵਾਉਣ ਦੀ ਆਜ਼ਾਦੀ ਰੱਖਦੇ ਹੋਣ।
Incident reporting ਉਹੀ ਮਹੱਤਵ ਰੱਖਦਾ ਹੈ: ਮਹੱਤਵਪੂਰਣ ਫੇਲਿਅਰਾਂ ਨੂੰ ਲੌਗ ਕਰਨਾ, ਪ੍ਰਭਾਵਤ ਉਪਭੋਗਤਿਆਂ ਨੂੰ ਸੂਚਿਤ ਕਰਨਾ, ਅਤੇ ਜਦ ਸੁਰੱਖਿਆ ਹੋਵੇ ਤਾਂ peers ਨਾਲ ਸਿੱਖਣਾ। ਜੇ ਕੋਈ ਕੰਪਨੀ ਦੱਸ ਨਹੀਂ ਸਕਦੀ ਕਿ ਉਹ ਗਲਤੀਆਂ ਤੋਂ ਕਿਵੇਂ ਸਿੱਖਦੀ ਹੈ ਤਾਂ ਉਹ ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧਣ ਲਈ ਤਿਆਰ ਨਹੀਂ।
ਸੁਰੱਖਿਆ ਕੰਮ ਹੋਰ ਮਾਣਯੋਗ ਬਣ ਜਾਂਦਾ ਹੈ ਜਦ ਇਹ ਮਾਪਯੋਗ ਹੋਵੇ। ਸਵਤੰਤਰ ਆਡਿਟ ਇਹ ਦੀ ਜਾਂਚ ਕਰ ਸਕਦੇ ਹਨ ਕਿ ਮੁੱਲਾਂਕਣ ਦਾਅਵੇ ਹਕੀਕਤ ਨਾਲ ਮੇਲ ਖਾਂਦੇ ਹਨ ਜਾਂ ਨਹੀਂ।
ਪਹੁੰਚ ਨਿਯੰਤਰਣ ਮੱਤਵਪੂਰਕ ਹਨ: ਕਿਸ ਨੂੰ ਮਾਡਲ fine-tune ਕਰਨ ਦੀ ਆਗਿਆ ਹੈ, ਕਿਸ ਨੂੰ ਇਸਨੂੰ ਉਪਕਰਨਾਂ (ਜਿਵੇਂ code execution ਜਾਂ ਭੁਗਤਾਨ) ਨਾਲ ਜੋੜਨ ਦੀ ਆਗਿਆ ਹੈ, ਅਤੇ ਦੁਰਵਾਰ ਵਰਤੋਂ ਲਈ ਕੀ ਮਾਨਿਤਰਨ ਮੌਜੂਦ ਹਨ।
ਟ੍ਰੇਨਿੰਗ ਦੌਰਾਨ compute ਟ੍ਰੈਕਿੰਗ ਅਤੇ ਲਾਇਸੰਸਿੰਗ ਦੀ ਚਰਚਾ ਵੱਧ ਰਹੀ ਹੈ ਕਿਉਂਕਿ ਇਹ "ਇਹ ਕਿੰਨੀ ਤੇਜ਼ੀ ਨਾਲ ਸਕੇਲ ਕਰ ਸਕਦਾ ਹੈ?" ਸਵਾਲ ਨੂੰ ਨਿਸ਼ਾਨਾ ਬਣਾਉਂਦੀ ਹੈ। ਜਦੋਂ ਟ੍ਰੇਨਿੰਗ ਰਨ ਕੁਝ ਥਰੈਸ਼ਹੋਲਡਾਂ 'ਤੇ ਪੁੱਜਦੇ ਹਨ, ਤਾਂ ਸਕੜੇ ਦੀਆਂ ਲੋੜਾਂ (ਡੌਕਯੂਮੈੈਂਟੇਸ਼ਨ, ਤੀਜੀ-ਪੱਖੀ ਸਮੀਖਿਆ, ਸੁਰੱਖਿਅਤ ਇੰਫ੍ਰਾਸਟ੍ਰਕਚਰ) ਲਾਗੂ ਕੀਤੀਆਂ ਜਾ ਸਕਦੀਆਂ ਹਨ।
ਇਹ "governance-by-design" ਵਿਚਾਰ ਸਿਰਫ਼ ਫ੍ਰੰਟੀਅਰ ਮਾਡਲ ਲੈਬਾਂ ਤੱਕ ਸੀਮਤ ਨਹੀਂ। ਇਹ ਉਹ ਟੀਮਾਂ ਲਈ ਵੀ ਲਾਗੂ ਹੁੰਦਾ ਹੈ ਜੋ ਤੇਜ਼ੀ ਨਾਲ AI-ਚਲਿਤ ਐਪ ਸ਼ਿਪ ਕਰ ਰਹੀਆਂ ਹਨ।
ਉਦਾਹਰਣ ਲਈ, ਵਾਈਬ-ਕੋਡਿੰਗ ਪਲੇਟਫਾਰਮਾਂ ਵਾਂਗ Koder.ai—ਜੋ ਟੀਮਾਂ ਨੂੰ ਚੈਟ ਰਾਹੀਂ ਵੈੱਬ, ਬੈਕਐਂਡ, ਅਤੇ ਮੋਬਾਈਲ ਐਪ ਬਣਾਉਣ ਦਿੰਦਾ ਹੈ—ਜਦੋਂ ਉਹ ਤੇਜ਼ੀ ਨਾਲ iteration ਦੇ ਨਾਲ controls ਜਿਵੇਂ planning mode, snapshots and rollback, ਅਤੇ source code export ਜੋੜਦੇ ਹਨ ਤਾਂ ਜਿੰਮੇਵਾਰੀ ਵਾਲੀ iteration ਨੂੰ ਸਮਰਥਨ ਮਿਲਦਾ ਹੈ। ਵੱਡੀ ਗੱਲ ਇਹ ਹੈ ਕਿ ਤੇਜ਼ ਵਿਕਾਸ ਉਹ tooling ਦੀ ਕੀਮਤ ਵਧਾਉਂਦਾ ਹੈ ਜੋ ਬਦਲਾਵਾਂ ਨੂੰ auditable ਅਤੇ reversible ਬਣਾਉਂਦਾ ਹੈ।
ਛੇਤੀ-ਛੇਤੀ ਸੁੰਝਵਣਕਾਰੀ ਵਚਨਬੱਧਤਾਵਾਂ ਜਦ ਉਹ ਤੇਜ਼ੀ ਨਾਲ ਆਮ ਮਿਆਰ ਬਣਾਉਂਦੀਆਂ ਹਨ ਤਾਂ ਮਦਦਗਾਰ ਹੁੰਦੀਆਂ ਹਨ—ਸਾਂਝੇ ਮੁੱਲਾਂਕਣ ਤਰੀਕੇ ਜਾਂ ਉੱਚ-ਖਤਰੇ ਦੀਆਂ ਖ਼ਤਰੀਆਂ ਬਾਰੇ ਕੋਆਰਡੀਨੇਟਡ disclosure।
ਪਰ ਜਿਥੇ ਪ੍ਰੇਰਣਾਵਾਂ ਗਲਤ ਹਨ, ਉਥੇ ਨਿਯਮ ਲਾਜ਼ਮੀ ਹੋ ਸਕਦੇ ਹਨ: ਜ਼ਰੂਰੀ incident reporting, ਬੇਸਲਾਈਨ ਸੁਰੱਖਿਆ ਅਭਿਆਸ, whistleblower ਸੁਰੱਖਿਆ, ਅਤੇ ਰੋਕਯੋਗ ਨੁਕਸਾਨਾਂ ਲਈ ਸਪਸ਼ਟ ਜਵਾਬਦੇਹੀ।
ਨਿੱਜੀ ਵਿਅਕਤੀ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰੋ; ਯੋਜਨਾ ਨੂੰ ਅੰਕੋ:
ਜਿੰਮੇਵਾਰ ਤੇਜ਼ੀ rhetorical ਨਾ ਹੋ ਕੇ ਇਹ ਦਿਖਾਉਂਦੀ ਹੈ ਕਿ ਨਿਰਮਾਤਾ ਆਪਣੇ ਜਾਰੀ ਕੀਤੇ ਚੀਜ਼ 'ਤੇ ਕੰਟਰੋਲ ਦਿਖਾ ਸਕਦਾ ਹੈ।
ਜਦੋਂ ਕੋਈ ਉੱਚ-ਪ੍ਰੋਫ਼ਾਈਲ ਨਿਰਮਾਤਾ AI ਖਤਰੇ ਬਾਰੇ ਚੇਤਾਵਨੀ ਦਿੰਦਾ ਹੈ ਅਤੇ ਉਹੀ ਸਮਾਂ ਆਪਣੀ ਹੀ AI ਪ੍ਰੋਗਰਾਮ ਨੂੰ ਫੰਡ ਅਤੇ ਤਿਆਰ ਕਰ ਰਿਹਾ ਹੁੰਦਾ ਹੈ, ਤਾਂ ਉਸ ਚੇਤਾਵਨੀ ਨੂੰ ਇੱਕ ਜਾਣਕਾਰੀ ਵਜੋਂ ਲਓ—ਪੂਰਾ ਨਿਰਦੇਸ਼ ਨਹੀਂ ਕਿ ਅਗਲੇ ਕਦਮ ਕੀ ਹੋਣੇ ਚਾਹੀਦੇ।
ਪ੍ਰੇਰਨਾਵਾਂ ਨਾਲ ਸ਼ੁਰੂ ਕਰੋ। ਇੱਕ ਵਿਅਕਤੀ ਸੱਚਮੁਚ AI ਨੁਕਸਾਨਾਂ ਤੋਂ ਡਰ ਸਕਦਾ ਹੈ ਅਤੇ ਫਿਰ ਵੀ ਆਪਣਾ प्रੋਗਰਾਮ ਤੇਜ਼ ਕਰਨ ਨਾਲ ਲਾਭ ਉਠਾ ਸਕਦਾ ਹੈ।
ਪੂਛੋ:
ਅਕਸਰ ਮਿਕਸਡ ਸੰਕੇਤ ਇੱਕੋ ਸਮੇਂ ਕਈ ਲਕੜਾਂ ਦਰਸਾਉਂਦੇ ਹਨ: ਜਨਤਕ ਵਿਧਾਨੀ, ਮੁਕਾਬਲਾਤਮਕ ਪੋਜ਼ਿਸ਼ਨਿੰਗ, ਭਰਤੀ, ਫੰਡਿੰਗ, ਅਤੇ ਸੱਚੀ ਚਿੰਤਾ।
ਬੰਦ ਤਰੀਕਾ: ਸ਼ਖ਼ਸੀਅਤਾਂ 'ਤੇ ਘੱਟ ਧਿਆਨ ਦਿਓ ਅਤੇ ਜ਼ਿਆਦਾ ਧਿਆਨ ਇਨਸੈਂਟਿਵ, ਸਬੂਤ ਅਤੇ ਲਾਗੂ ਕਰਨ ਯੋਗ ਨਿਯਮਾਂ 'ਤੇ ਦਿਓ ਜੋ ਹਰ ਨਿਰਮਾਤਾ ਨੂੰ ਇੱਕੋ ਹੀ ਤਰੀਕੇ ਨਾਲ ਬਾਂਧ ਸਕਣ।
ਇਹ ਉਹ ਨਮੂਨਾ ਹੈ ਜਿੱਥੇ Musk ਇਹ ਸਾਰਵਜਨਿਕ ਤੌਰ 'ਤੇ ਚੇਤਾਵਨੀ ਦਿੰਦਾ ਹੈ ਕਿ ਉੱਨ੍ਹੀ ਉੱਚ ਪੱਧਰ ਦੀਆਂ AI ਪ੍ਰਣਾਲੀਆਂ ਸੁਖਣਜੋਗ ਸੰਭਾਵਿਤ ਨੁਕਸਾਨ ਪਹੁੰਚਾ ਸਕਦੀਆਂ ਹਨ ਜਿਨ੍ਹਾਂ ਲਈ ਕਠੋਰ ਨਿਗਰਾਨੀ ਦੀ ਲੋੜ ਹੋ ਸਕਦੀ ਹੈ, ਅਤੇ ਇਕੱਠੇ ਹੀ ਉਹ ਮਜ਼ਬੂਤ AI ਸਿਸਟਮਾਂ ਨੂੰ ਬਣਾਉਣ ਅਤੇ ਤੈਨਾਤ ਕਰਨ ਵਿੱਚ ਸਹਾਇਤਾ ਵੀ ਕਰਦਾ ਹੈ (ਉਦਾਹਰਣ ਲਈ, founding efforts, ਨਵਾਂ labs, ਉਤਪਾਦ ਲਾਂਚ). ਮੁੱਖ ਗੱਲ ਇਹ ਹੈ ਕਿ ਦੋ ਸੰਕੇਤ—“ਧੀਰੇ ਕਰੋ” ਅਤੇ “ਤੇਜ਼ ਬਣਾਓ”—ਜਨਤਕ ਰਿਕਾਰਡ ਵਿੱਚ ਇਕੱਠੇ ਦਿਖਾਇ ਦਿੰਦੇ ਹਨ।
ਸੁਝਾਅ ਇਹ ਹੈ ਕਿ ਦੇਖਣਯੋਗ ਕਾਰਵਾਈਆਂ 'ਤੇ ਧਿਆਨ ਦਿਓ ਨਾ ਕਿ ਅੰਦਾਜ਼ੇ ਵਾਲੇ ਇਰਾਦਿਆਂ 'ਤੇ:
ਇਸ ਤਰ੍ਹਾਂ ਵਿਸ਼ਲੇਸ਼ਣ ਮਿਸ਼ਰਤ ਪ੍ਰੇਰਣਾਵਾਂ ਹੋਣ ਦੇ ਬਾਵਜੂਦ ਠੋਸ ਅਧਾਰ 'ਤੇ ਰਹਿੰਦੀ ਹੈ।
ਪੋਸਟ ਉਹ ਤਿੰਨ ਆਮ ਥੀਮਾਂ ਦਰਸਾਉਂਦੀ ਹਨ:
ਇਹ ਥੀਮਾਂ ਸੰਗਠਨਾਂ ਅਤੇ ਪ੍ਰੇਰਣਾਵਾਂ ਦੇ ਬਦਲਣ ਦੇ ਬਾਵਜੂਦ ਤੁੱਲ ਰਹਿ ਸਕਦੀਆਂ ਹਨ।
ਸਾਰਵਜਨਕ ਵਿਆਖਿਆ ਦੇ ਅਨੁਸਾਰ ਇੱਕ ਮੁੱਖ ਕਾਰਨ conflict-of-interest ਸੀ ਜਦੋਂ Tesla ਦੀ autonomy ਅਤੇ AI ਕੰਮ ਵਧੀ। ਅੰਦਰੂਨੀ ਵਿਵਰਣ ਜੋ ਵੀ ਹੋਣ, ਨਤੀਜਾ ਇਹ ਰਹਿਆ ਕਿ Musk ਹੁਣ OpenAI ਦਾ ਲੀਡਰ ਨਹੀਂ ਹੈ ਅਤੇ ਇਸ ਨਾਲ ਉਸ ਦੀਆਂ ਬਾਅਦ ਦੀਆਂ ਆਲੋਚਨਾਵਾਂ ਵੱਧ ਵਿਰੋਧੀ ਸੰਦਰਭ ਵਿੱਚ ਆਈਆਂ—ਉਸਦੇ ਕੋਲ ਮਿਲਦੇ ਜੁਲਦੇ ਮੁਕਾਬਲਾਤਮਕ ਰੁਚੀਆਂ ਵੀ ਹਨ।
ਕਿਸੇ ਨਵੀਂ ਫਰੰਟੀਅਰ ਲੈਬ ਦੇ ਆਰੰਭ ਨਾਲ ਖੇਤਰ ਦੀ رفتار ਤੇਜ਼ ਹੁੰਦੀ ਹੈ ਕਿਉਂਕਿ:
ਇਹੀ acceleration ਦਲੀਲ ਹੈ: ਇਕ ਹੋਰ ਗੰਭੀਰ ਮੁਕਾਬਲਾਅੀ ਖੇਤਰ ਦੀ ਸਮਰੱਥਾ ਤੇਜ਼ ਕਰ ਦਿੰਦਾ ਹੈ।
ਇਹ ਉਤਪਾਦ ਕਹਾਣੀ ਅਤੇ ਵੰਡ ਦੀ ਰਣਨੀਤੀ ਦੋਹਾਂ ਹੁੰਦੀ ਹੈ:
ਕਿਉਂਕਿ physical ਸਿਸਟਮਾਂ ਵਿੱਚ ਗਲਤੀ ਸਿੱਧਾ ਨੁਕਸਾਨ ਪਹੁੰਚਾ ਸਕਦੀ ਹੈ:
ਇਸ ਲਈ validation, ਜ਼ਿੰਮੇਵਾਰੀ ਅਤੇ ਰਿਲੀਜ਼ ਗੇਟਸ ਲਈ ਮਿਆਰ ਬਹੁਤ ਵੱਧ ਹੁੰਦਾ ਹੈ—ਖਾਸ ਕਰਕੇ ਜਦੋਂ ਓਵਰ-ਦ-ਏਅਰ ਅਪਡੇਟ ਇੱਕ ਵੱਡੇ ਫਲੀਟ ਨੂੰ ਭੇਜੇ ਜਾਂਦੇ ਹਨ।
Driver assistance ਹੁਣ ਵੀ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਅਤੇ intervene ਕਰਨ ਦੀ ਉਮੀਦ ਰੱਖਦਾ ਹੈ; full autonomy ਮਤਲਬ ਹੈ ਕਿ ਗੱਡੀ ਪੂਰੇ ਯਾਤਰਾ ਨੂੰ ਭਰੋਸੇਯੋਗ ਤਰੀਕੇ ਨਾਲ ਸੰਭਾਲ ਲਵੇ, ਇਨਹੀਂ ਅਸਧਾਰਣ ਹਾਲਤਾਂ ਸميت, ਬਿਨਾਂ ਮਨੁੱਖੀ ਉਦਪ੍ਰੇਰਣਾ ਦੇ।
ਜੇ ਇਹ ਦੋਹਾਂ ਵਿੱਚ ਧੁੰਦ ਪੈ ਜਾਂਦੀ ਹੈ ਤਾਂ ਜੋ ਉਪਭੋਗਤਾ ਸਿਸਟਮ ਨੂੰ ਜ਼ਿਆਦਾ ਸਮਰੱਥ ਮੰਨ ਲੈਂਦਾ ਹੈ, ਤਾਂ ਖਤਰਾ ਵਧ ਜਾਂਦਾ ਹੈ।
ਇਹ ਇੱਕ ਅਨੁਕੂਲਨ ਵਾਲੀ ਦਲੀਲ ਵਜੋਂ ਪੇਸ਼ ਕੀਤੀ ਜਾਂਦੀ ਹੈ: ਜੇ AI ਬਹੁਤ ਸਮਰੱਥ ਹੋ ਗਿਆ ਤਾਂ ਮਨੁੱਖ ਹੋਰ ਤੇਜ਼ ਤਰੀਕੇ ਨਾਲ ਕੰਪਿਊਟਰ ਨਾਲ ਜੁੜਨ ਲਈ ਹਾਰਡਵੇਅਰ/ਇੰਟਰਫੇਸ ਵਰਗੀਆਂ ਚੀਜ਼ਾਂ ਵਰਤ ਸਕਦੇ ਹਨ।
ਪੋਸਟ ਦੋ ਚੀਜ਼ਾਂ 'ਤੇ ਜ਼ੋਰ ਦਿੰਦੀ ਹੈ:
ਚੇਤਾਵਨੀ ਦੇ ਦਾਅਵਿਆਂ ਦੀ ਵਿਸ਼ਵਸਨੀਯਤਾ ਟੈਸਟ ਕਰਨ ਲਈ ਇੱਕ ਚੈਕਲਿਸਟ ਵਰਤੋ ਜੋ ਬੜੀ ਬਹਸ ਨਹੀਂ ਸਗੋਂ ਸਾਬਤ ਕਥਨਾਂ 'ਤੇ ਠੀਕ ਹੋਵੇ:
ਇਹ ਤੁਹਾਨੂੰ ਕਿਸੇ ਵੀ ਨਿਰਮਾਤਾ—Musk ਹੋਵੇ ਜਾਂ ਹੋਰ—ਨੂੰ ਇੱਕੋ ਮਾਪਦੰਡ 'ਤੇ ਅੰਕਣ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰੇਗਾ।