ਪਹਿਲੀ AI-ਬਣੀ ਐਪ (v1) ਲਾਂਚ ਕਰਨ ਤੋਂ ਬਾਅਦ ਕੀ ਹੁੰਦਾ ਹੈ: ਨਿਗਰਾਨੀ, ਫੀਡਬੈਕ, ਫਿਕਸ, ਅੱਪਡੇਟ ਅਤੇ ਅੱਗੇ ਰਿਲੀਜ਼ ਦੀ ਯੋਜਨਾ — ਪ੍ਰਯੋਗਿਕ ਮਾਰਗਦਰਸ਼ਨ।

“ਲਾਂਚ” ਇਕ ਝਟਕਾ ਨਹੀਂ—ਇਹ ਇੱਕ ਫੈਸਲਾ ਹੈ ਕਿ ਤੁਹਾਡੀ ਪ੍ਰੋਡਕਟ ਨੂੰ ਕੌਣ ਵਰਤ ਸਕਦਾ ਹੈ, ਤੁਸੀਂ ਕੀ ਵਾਅਦਾ ਕਰ ਰਹੇ ਹੋ, ਅਤੇ ਤੁਸੀਂ ਕੀ ਸਿੱਖਣਾ ਚਾਹੁੰਦੇ ਹੋ। AI-ਬਣੀ v1 ਲਈ, ਸਭ ਤੋਂ ਖ਼ਤਰਨਾਕ ਧਾਰਣਾ ਆਮ ਤੌਰ ਤੇ UI ਨਹੀਂ ਹੁੰਦੀ; ਇਹ ਹੁੰਦਾ ਹੈ ਕਿ AI ਵਤੀਰਾ (behavior) ਅਸਲ ਲੋਕਾਂ ਲਈ ਅਪਯੋਗ, ਭਰੋਸੇਯੋਗ ਅਤੇ ਦੁਹਰਾਉਣਯੋਗ ਹੈ ਜਾਂ ਨਹੀਂ।
ਕਿਸੇ ਵੀ ਐਲਾਨ ਤੋਂ ਪਹਿਲਾਂ, ਰਿਲੀਜ਼ ਦੀ ਕਿਸਮ ਸਪਸ਼ਟ ਕਰੋ:
ਇੱਕ “ਲਾਂਚ” ਬਸ 20 ਬੇਟਾ ਯੂਜ਼ਰਾਂ ਵਾਂਗ ਹੀ ਛੋਟਾ ਹੋ ਸਕਦਾ ਹੈ—ਜੇ ਉਹ ਉਹੀ ਦਰਸ਼ਕ ਦਰਸਾਉਂਦੇ ਹਨ ਜਿਸਨੂੰ ਤੁਸੀਂ ਅੰਤ ਵਿੱਚ ਚਾਹੁੰਦੇ ਹੋ।
ਇੱਕ AI v1 ਇਕੱਠੇ ਸਭ ਕੁਝ ਠੀਕ ਨਹੀਂ ਕਰ ਸਕਦਾ। ਮੁੱਖ ਉਦੇਸ਼ ਚੁਣੋ ਅਤੇ ਉਹ ਤੁਹਾਡੇ ਫੈਸਲਿਆਂ ਨੂੰ ਆਕਾਰ ਦੇਵੇ:
ਇਹ ਲਿਖੋ। ਜੇ ਕੋਈ ਫੀਚਰ ਇਸਨੂੰ ਸਹਾਇਕ ਨਹੀਂ ਹੈ, ਤਾਂ ਉਹ ਇੱਕ ਧਿਆਨਭਟਕਣ ਹੋ ਸਕਦਾ ਹੈ।
ਸਫਲਤਾ ਮੁਖੀ ਤੇ ਸਮੇਂ-ਬੱਧ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ। ਉਦਾਹਰਣ:
v1 ਗੱਲਬਾਤ ਦੀ ਸ਼ੁਰੂਆਤ ਹੈ, ਅੰਤ ਨਹੀਂ। ਯੂਜ਼ਰਾਂ ਨੂੰ ਦੱਸੋ ਕਿ ਕੀ ਸਥਿਰ ਹੈ, ਕੀ ਪ੍ਰਯੋਗਾਤਮਕ ਹੈ, ਅਤੇ ਸਮੱਸਿਆਆਂ ਦੀ ਰਿਪੋਰਟ ਕਿਵੇਂ ਕਰਨੀ ਹੈ।
ਅੰਦਰੂਨੀ ਤੌਰ 'ਤੇ, ਇਹ ਮੰਨੋ ਕਿ ਤੁਸੀਂ ਆਮ ਤੌਰ 'ਤੇ ਕਾਪੀ, ਫਲੋਜ਼ ਅਤੇ AI ਵਿਹਾਰ ਨੂੰ ਅਕਸਰ ਸੋਧੋਗੇ—ਕਿਉਂਕਿ ਅਸਲੀ ਉਤਪਾਦ ਅਸਲੀ ਵਰਤੋਂ ਦੇ ਨਾਲ ਸ਼ੁਰੂ ਹੁੰਦਾ ਹੈ।
ਲਾਂਚ ਦਿਨ “ਸ਼ਿਪ” ਕਰਨ ਦੇ ਬਜਾਏ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਦੇ ਬਾਰੇ ਜ਼ਿਆਦਾ ਹੁੰਦਾ ਹੈ ਕਿ ਤੁਹਾਡਾ v1 ਅਸਲ ਯੂਜ਼ਰਾਂ ਨੂੰ ਬਰਦਾਸ਼ਤ ਕਰ ਸਕਦਾ ਹੈ। ਨਵੇਂ ਫੀਚਰਾਂ ਦੇ ਪਿੱਛੇ ਭੱਜਣ ਤੋਂ ਪਹਿਲਾਂ, ਬੁਨਿਆਦੀ ਚੀਜ਼ਾਂ ਲੌਕ ਕਰੋ: ਕੀ ਇਹ ਪਹੁੰਚਯੋਗ ਹੈ, ਮਾਪਯੋਗ ਹੈ, ਅਤੇ ਸਪਸ਼ਟ ਤੌਰ 'ਤੇ ਕਿਸੇ ਨੂੰ ਅਧਿਕਾਰ ਹੈ?
ਜੇ ਤੁਸੀਂ ਕਿਸੇ ਪਲੇਟਫਾਰਮ 'ਤੇ ਬਣਾਉਂਦੇ ਹੋ ਜੋ ਡਿਪਲੌਇਮੈਂਟ, ਹੋਸਟਿੰਗ, ਅਤੇ ਓਪਰੇਸ਼ਨਲ ਟੂਲਿੰਗ ਇੱਕਠੇ ਕਰਦਾ ਹੈ—ਜਿਵੇਂ Koder.ai—ਤਾਂ ਦਿਨ 0 'ਤੇ ਉਹ ਲਾਭ ਵਰਤੋ। ਇਕ-ਕਲਿਕ ਡਿਪਲੌਇਮੈਂਟ/ਹੋਸਟਿੰਗ, ਕਸਟਮ ਡੋਮੇਨ, ਅਤੇ ਸਨੇਪਸ਼ਾਟ/ਰੋਲਬੈਕ ਵਰਗੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਗੁਪਤ ਲਾਂਚ-ਦਿਨ ਫੇਲ੍ਹਰ ਪਾਇੰਟ ਘਟਾ ਸਕਦੀਆਂ ਹਨ।
ਸਧਾਰਣ ਪਰ ਜ਼ਰੂਰੀ ਚੈਕਸ ਨਾਲ ਸ਼ੁਰੂ ਕਰੋ:
/health) ਸੈੱਟ ਕਰੋ ਅਤੇ ਆਪਣੇ ਪ੍ਰੋਵਾਇਡਰ ਤੋਂ ਬਾਹਰ ਉਸਦੀ ਨਿਗਰानी ਕਰੋ।ਜੇ ਅੱਜ ਤੁਹਾਡੇ ਕੋਲ ਸਿਰਫ ਇੱਕ ਘੰਟਾ ਹੈ, ਤਾਂ ਇਸ 'ਤੇ ਖਰਚ ਕਰੋ। ਵਧੀਆ AI ਫੀਚਰ ਵੀ ਫਲੈਸ਼ਿੰਗ ਪੇਜ ਦੇ ਸਾਹਮਣੇ ਅਸਾਰ ਨਹੀਂ ਰੱਖਦਾ।
ਐਨਾਲਿਟਿਕਸ ਲਗਾਉਣਾ ਸਮਾਨ ਨਹੀਂ ਹੈ ਜਿਵੇਂ ਕਿ ਐਨਾਲਿਟਿਕਸ 'ਤੇ ਭਰੋਸਾ ਕਰਨਾ।
ਨਾਲ ਹੀ AI-ਖਾਸ ਨਾਕਾਮੀਆਂ ਲੌਗ ਕਰੋ: ਟਾਈਮਆਉਟ, ਮਾਡਲ ਐਰਰ, ਟੂਲ ਫੇਲ੍ਹਰ, ਅਤੇ “ਖਾਲੀ/ਗੜਬੜ-ਭਰਿਆ ਆਉਟਪੁੱਟ” ਮਾਮਲੇ।
ਸਧਾਰਨ ਅਤੇ ਵਿਵਹਾਰਕ ਰੱਖੋ: ਐਪ ਟੁੱਟ ਜਾਵੇ ਤਾਂ ਤੁਸੀਂ ਕੀ ਕਰੋਗੇ?
ਜੇ ਤੁਹਾਡਾ ਸਟੈਕ ਸਨੇਪਸ਼ਾਟ ਅਤੇ ਰੋਲਬੈਕ ਸਮਰਥਨ ਕਰਦਾ ਹੈ (Koder.ai ਵਿੱਚ ਇਹ ਸੰਕਲਪ ਹੈ), ਤਾਂ ਫੈਸਲਾ ਕਰੋ ਕਦੋਂ ਤੁਸੀਂ ਰੋਲਬੈਕ ਵਰਤੋਂਗੇ ਬਨਾਮ “ਅੱਗੇ ਪੈਚ” ਅਤੇ ਸਹੀ ਕਦਮ ਦਸਤਾਵੇਜ਼ ਕਰੋ।
ਇੱਕ ਸਿੰਗਲ ਪੇਜ—ਸ਼ੇਅਰਡ ਡੌਕ, Notion, ਜਾਂ /runbook—ਬਣਾਓ ਜੋ ਇਹ ਜਵਾਬ ਦੇਵੇ:
ਜਦੋਂ ਮਾਲਕੀ ਸਪਸ਼ਟ ਹੁੰਦੀ ਹੈ, ਤਾਂ ਪਹਿਲਾ ਹਫਤਾ ਕਠਿਨਾਈ ਦੀ ਥਾਂ ਪਰਬੰਧਨਯੋਗ ਬਣ ਜਾਂਦਾ ਹੈ।
v1 ਦੇ ਬਾਅਦ, ਮੈਪਮੈਂਟ ਇਹ ਹੈ ਕਿ "ਇਹ ਬਿਹਤਰ ਮਹਿਸੂਸ ਹੁੰਦਾ ਹੈ" ਨੂੰ ਫੈਸਲਿਆਂ ਵਿੱਚ ਬਦਲੋ ਜਿਸਨੂੰ ਤੁਸੀਂ ਸਹੀ ਢੰਗ ਨਾਲ ਸਮਰਥਨ ਕਰ ਸਕੋ। ਤੁਸੀਂ ਰੋਜ਼ਾਨਾ ਦੇਖਣ ਲਈ ਇੱਕ ਛੋਟਾ ਮੈਟ੍ਰਿਕਸ ਸੈੱਟ ਚਾਹੁੰਦੇ ਹੋ, ਨਾਲ ਹੀ ਗਹਿਰਾਈਆਂ ਲੈਣ ਲਈ ਡਾਇਗਨੋਸਟਿਕ ਹਨ ਜਦੋਂ ਕੁਝ ਬਦਲਦਾ ਹੈ।
ਇੱਕ North Star metric ਚੁਣੋ ਜੋ ਅਸਲ ਮੁੱਲ ਨੂੰ ਦਰਸਾਉਂਦੀ—ਨਾ ਕਿ ਸਿਰਫ ਸਰਗਰਮੀ। AI-ਬਣੀ ਐਪ ਲਈ ਇਹ ਅਕਸਰ “ਸਫਲ ਨਤੀਜੇ” ਹੁੰਦਾ ਹੈ (ਉਦਾਹਰਣ: ਪੂਰੇ ਹੋਏ ਟਾਸਕ, ਤਿਆਰਦਿਆ ਦਸਤਾਵੇਜ਼ ਜੋ ਵਰਤੇ ਜਾਂਦੇ ਹਨ, ਸਵਾਲ ਜਿਨ੍ਹਾਂ ਦੇ ਜਵਾਬ ਮਨਜ਼ੂਰ ਕੀਤੇ ਜਾਂਦੇ ਹਨ)।
ਫਿਰ 3–5 ਸਹਾਇਕ ਮੈਟ੍ਰਿਕਸ ਸ਼ਾਮਲ ਕਰੋ ਜੋ ਦੱਸਣ ਕਿ ਨਾਰਥ ਸਟਾਰ ਕਿਉਂ ਹਿਲਦਾ ਹੈ:
ਇਕ ਸਧਾਰਨ ਡੈਸ਼ਬੋਰਡ ਬਣਾਓ ਜੋ ਇਹਨਾਂ ਨੂੰ ਇਕੱਠਾ ਦਿਖਾਏ ਤਾਂ ਜੋ ਤੁਸੀਂ ਟਰੇਡਆਫਜ਼ (ਜਿਵੇਂ ਐਕਟੀਵੇਸ਼ਨ ਵੱਧ ਪਰ ਰੀਟੇਨਸ਼ਨ ਘੱਟ) ਛੇਤੀ ਦੇਖ ਸਕੋ।
ਰਵਾਇਤੀ ਉਤਪਾਦ ਵਿਸ਼ਲੇਸ਼ਣ ਇਹ ਨਹੀਂ ਦੱਸੇਗੀ ਕਿ AI ਮਦਦਗਾਰ ਹੈ ਜਾਂ ਬੇਹੂਦਾ। AI-ਖਾਸ ਸਿਗਨਲ ਟ੍ਰੈਕ ਕਰੋ ਜੋ ਗੁਣਵੱਤਾ ਅਤੇ ਭਰੋਸੇ ਦੀ ਇਸ਼ਾਰਾ ਦਿੰਦੇ ਹਨ:
ਇਹਨਾਂ ਨੂੰ ਯੂਜ਼ ਕੇਸ, ਯੂਜ਼ਰ ਟਾਈਪ, ਅਤੇ ਇਨਪੁਟ ਲੰਬਾਈ ਦੇ ਨਾਲ ਸੈਗਮੈਂਟ ਕਰੋ। ਔਸਤ ਅਕਸਰ ਅਸਫਲ ਖੇਤਰਾਂ ਨੂੰ ਲੁਕਾਉਂਦੇ ਹਨ।
ਉਨ੍ਹਾਂ ਮੈਟ੍ਰਿਕਸ ਤੋਂ ਸਾਵਧਾਨ ਰਹੋ ਜੋ ਵਧੀਆ ਲੱਗਦੇ ਹਨ ਪਰ ਫੈਸਲੇ ਨਹੀਂ ਬਦਲਦੇ:
ਜੇ ਕੋਈ ਮੈਟ੍ਰਿਕ ਕਿਸੇ ਵਿਸ਼ੇਸ਼ ਕਾਰਵਾਈ ਨੂੰ ਟ੍ਰਿਗਰ ਨਹੀਂ ਕਰਦਾ (“ਜੇ ਇਹ 10% ਘੱਟ ਹੋ ਗਿਆ ਤਾਂ ਅਸੀਂ X ਕਰਾਂਗੇ”), ਤਾਂ ਉਹ ਮੁੱਖ ਡੈਸ਼ਬੋਰਡ 'ਤੇ ਨਹੀਂ ਹੋਣਾ ਚਾਹੀਦਾ।
AI-ਬਣੀ v1 ਨੂੰ ਮਾਨੀਟਰਨਿੰਗ ਤੋਂ ਬਿਨਾਂ ਲਾਂਚ ਕਰਨਾ ਐਸਾ ਹੈ ਜਿਵੇਂ ਚੈੱਕ-ਇੰਜਨ ਲਾਈਟ ਨੂੰ ਢੱਕ ਦੇਣਾ। ਐਪ “ਕਾਮ” ਕਰ ਸਕਦੀ ਹੈ, ਪਰ ਤੁਸੀਂ ਨਹੀਂ ਜਾਣੋਗੇ ਕਿ ਕਦੋਂ ਇਹ ਫੇਲ, ਸੁਸਤ ਜਾਂ ਚੁਪਚਾਪ ਪੈਸਾ ਘਟਾ ਰਿਹਾ ਹੈ।
ਕਿਸੇ ਵੀ ਤਿੁਨੂੰ ਤਨੈਤ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ, ਪਹਿਲੇ ਅਸਲ ਯੂਜ਼ਰਾਂ ਲਈ ਸਾਫ਼ ਬੇਸਲਾਈਨ ਕੈਪਚਰ ਕਰੋ:
ਲੋਗਸ ਨੂੰ ਸੰਰਚਿਤ ਰੱਖੋ (ਖੇਤਰ ਜਿਵੇਂ user_id, request_id, model, endpoint, latency_ms) ਤਾਂ ਜੋ ਇਨਸੀਡੈਂਟ ਦੌਰਾਨ ਤੇਜ਼ੀ ਨਾਲ ਫਿਲਟਰ ਕੀਤਾ ਜਾ ਸਕੇ।
ਪਹਿਲੇ ਕੁਝ ਦਿਨ ਉਹ ਜਗ੍ਹਾ ਹੁੰਦੇ ਹਨ ਜਿੱਥੇ ਐਡਜ ਕੇਸ ਆਉਂਦੇ ਹਨ: ਲੰਮੇ ਇਨਪੁੱਟ, ਅਨੋਖੇ ਫਾਈਲ ਫਾਰਮੇਟ, ਅਣਪਛਾਤੀ ਭਾਸ਼ਾ, ਜਾਂ ਯੂਜ਼ਰ ਇਕੋ ਫਲੋ ਨੂੰ ਬਾਰ-ਬਾਰ ਦਬਾ ਰਹੇ ਹਨ।
ਇਸ ਵਿੰਡੋ ਦੌਰਾਨ ਡੈਸ਼ਬੋਰਡ ਨੂੰ ਅਕਸਰ ਚੈੱਕ ਕਰੋ ਅਤੇ ਅਸਲ ਟ੍ਰੇਸਾਂ ਦੀ ਨਮੂਨਾ ਸਮੀਖਿਆ ਕਰੋ। ਤੁਸੀਂ ਬੇਹਤਰੀ ਦੀ ਖੋਜ ਨਹੀਂ ਕਰ ਰਹੇ—ਤੁਸੀਂ ਪੈਟਰਨਾਂ ਦੀ ਖੋਜ ਕਰ ਰਹੇ ਹੋ: ਅਚਾਨਕ ਸਪੀਕ, ਹੌਲੀ ਡ੍ਰਿਫਟ, ਅਤੇ ਦੁਹਰਾਉਣਯੋਗ ਫੇਲ੍ਹਰ।
ਉਹ ਮਸਲਿਆਂ ਲਈ ਅਲਰਟ ਸੈਟ ਕਰੋ ਜੋ ਤੁਰੰਤ ਯੂਜ਼ਰ ਦਰਦ ਜਾਂ ਵਿੱਤੀ ਜੋਖਮ ਪੈਦਾ ਕਰਦੇ ਹਨ:
ਅਲਰਟ ਨੂੰ ਇਕ ਜਗ੍ਹਾ ਤੇ ਰੂਟ ਕਰੋ (Slack, PagerDuty, ਈਮੇਲ) ਅਤੇ ਪੁਸ਼ਟੀ ਕਰੋ ਕਿ ਹਰ ਅਲਰਟ ਵਿੱਚ ਸੰਬੰਧਿਤ ਡੈਸ਼ਬੋਰਡ ਜਾਂ ਲੋਗ ਕਵੇਰੀ ਦਾ ਲਿੰਕ ਹੈ।
ਜੇ ਤੁਹਾਡੇ ਕੋਲ 24/7 ऑन-ਕਾਲ ਨਹੀਂ ਹੈ, ਤਾਂ ਇਹ ਫੈਸਲਾ ਕਰੋ ਕਿ ਰਾਤ ਨੂੰ ਕੀ ਹੁੰਦਾ ਹੈ: ਕਿਸ ਨੂੰ ਜਗਾਇਆ ਜਾਵੇ, ਕੀ ਸਵੇਰੇ ਤੱਕ ਇੰਤਜ਼ਾਰ ਕਰ ਸਕਦਾ ਹੈ, ਅਤੇ ਕੀ ਐਮਰਜੈਂਸੀ ਹੈ। ਇਕ ਸਧਾਰਣ ਰੋਟੇਸ਼ਨ + ਛੋਟੀ ਰਨਬੁੱਕ ("ਸਟੇਟਸ ਪੇਜ ਚੈੱਕ ਕਰੋ, ਰੋਲਬੈਕ ਕਰੋ, ਫੀਚਰ ਫਲੈਗ ਨਸਦੀ ਕਰੋ") ਦਿੱਲਚਸਪੀ ਅਤੇ ਅਣਵਾਂਛਿਤ ਗੈਸਮੁੜਨ ਨੂੰ ਰੋਕਦਾ ਹੈ।
ਯੂਜ਼ਰ ਫੀਡਬੈਕ ਤਦ ਹੀ ਲਾਭਦਾਇਕ ਹੁੰਦਾ ਹੈ ਜਦੋਂ ਇਹ ਦੇਣਾ ਆਸਾਨ ਹੋਵੇ, ਸਮਝਣਾ ਆਸਾਨ ਹੋਵੇ, ਅਤੇ ਸਹੀ ਫਿਕਸ ਨੂੰ ਰੂਟ ਕੀਤਾ ਜਾ ਸਕੇ। v1 ਲਾਂਚ ਦੇ ਬਾਅਦ, ਲਕੜੀ ਇਹ ਨਹੀਂ ਹੈ ਕਿ "ਵਧੇਰੇ ਫੀਡਬੈਕ ਇਕੱਤਰ ਕਰੋ"; ਲਕੜੀ ਇਹ ਹੈ ਕਿ "ਸਹੀ ਫੀਡਬੈਕ, ਕਾਫ਼ੀ ਸੰਦਰਭ ਨਾਲ ਇਕੱਤਰ ਕਰੋ ਤਾਂ ਜੋ ਕਾਰਵਾਈ ਹੋ ਸਕੇ"।
ਇੱਕ ਸਪੱਸ਼ਟ, ਇੱਕ-ਫਲੌਟ ਚੈਨਲ ਚੁਣੋ ਅਤੇ ਐਪ ਦੇ ਅੰਦਰੋਂ ਹੀ ਉਸਨੂੰ ਦਿਖਾਓ। ਇਨ-ਐਪ ਵਿਜੇਟ ਆਦर्श ਹੈ, ਪਰ ਇਕ ਸਧਾਰਣ “Send feedback” ਲਿੰਕ ਜੋ ਛੋਟੀ ਫਾਰਮ ਖੋਲ੍ਹਦਾ ਹੈ ਵੀ ਕੰਮ ਕਰਦਾ ਹੈ।
ਇਸਨੂੰ ਹਲਕਾ ਰੱਖੋ: ਨਾਮ/ਈਮੇਲ (ਵਿਕਲਪਿਕ), ਸੁਨੇਹਾ, ਅਤੇ ਇੱਕ-ਦੋ ਛੋਟੇ ਚੋਣਕ। ਜੇ ਯੂਜ਼ਰ ਨੂੰ ਸਮੱਸਿਆ ਦੀ ਰਿਪੋਰਟ ਕਰਨ ਲਈ ਖੋਜ ਕਰਨੀ ਪੈਵੇਗੀ, ਤਾਂ ਤੁਸੀਂ ਬਹੁਤ ਹੱਦ ਤੱਕ ਪਾਵਰ ਯੂਜ਼ਰਾਂ ਤੋਂ ਸੁਣੋਗੇ—ਅਤੇ ਚੁੱਪ ਮਹਾਂਭਾਗ ਨੂੰ ਮਿਸ ਕਰ ਜਾਵੋਗੇ।
“ਇਹ ਟੁੱਟਿਆ” ਤੇ ਇੱਕ ਫਿਕਸੇਬਲ ਰਿਪੋਰਟ ਵਿੱਚ ਫਰਕ ਸੰਦਰਭ ਹੈ। ਯੂਜ਼ਰਾਂ ਨੂੰ ਤਿੰਨ ਸਾਦੇ ਪ੍ਰਸ਼ਨ ਪੁੱਛੋ:
AI ਫੀਚਰਾਂ ਲਈ ਇੱਕ ਹੋਰ ਪ੍ਰਸ਼ਨ ਸ਼ਾਮਲ ਕਰੋ: “ਜੇ ਤੁਸੀਂ ਸਾਂਝਾ ਕਰ ਸਕੋ ਤਾਂ ਤੁਹਾਡੇ ਨੇ ਕੀ ਟਾਈਪ ਕੀਤਾ ਜਾਂ ਅਪਲੋਡ ਕੀਤਾ?” ਜਦੋਂ ਸੰਭਵ ਹੋਵੇ, ਫਾਰਮ ਨੂੰ ਸਕਰੀਨਸ਼ੌਟ ਜੁੜਨ ਦੀ ਆਗਿਆ ਦਿਓ ਅਤੇ ਬੇਸਿਕ ਮੈਟਾ ਡੇਟਾ (ਐਪ ਵਰਜ਼ਨ, ਡਿਵਾਈਸ, ਸਮਾਂ) ਆਪੋ-ਆਪਣੇ ਸ਼ਾਮਲ ਕਰੋ। ਇਹ ਘੰਟਿਆਂ ਦੀ ਬਚਤ ਕਰਦਾ ਹੈ।
ਫੀਡਬੈਕ ਨੂੰ ਇਕ ਲੰਮੇ, ਅਣਪੜ੍ਹੇ ਇਨਬਾਕਸ ਰੱਦ ਨਾ ਹੋਣ ਦਿਓ। ਇਸਨੂੰ ਥੀਮਾਂ ਵਿੱਚ ਟ੍ਰਾਇਅਜ ਕਰੋ ਜੋ ਕਾਰਵਾਈ ਨਾਲ ਜੁੜਦੇ ਹਨ:
ਟੈਗਿੰਗ ਤੇਜ਼ੀ ਨਾਲ ਪੈਟਰਨ ਦਿਖਾਉਂਦਾ ਹੈ: “20 ਲੋਕ ਸਟੈਪ 2 ਨਾਲ ਗੁਮਰਾਹ ਹਨ” ਇੱਕ UX ਫਿਕਸ ਹੈ, ਸਪੋਰਟ ਸਮੱਸਿਆ ਨਹੀਂ।
ਜਦੋਂ ਤੁਸੀਂ ਕਿਸੇ ਦੀ ਰਿਪੋਰਟ ਦਾ ਨਿਰਾਕਰਨ ਕਰਦੇ ਹੋ, ਉਨ੍ਹਾਂ ਨੂੰ ਦੱਸੋ। ਇੱਕ ਛੋਟੀ ਜਵਾਬ—“ਅਸੀਂ ਅੱਜ ਫਿਕਸ ਕੀਤਾ; ਧੰਨਵਾਦ”—ਨਿਰਾਸ਼ ਯੂਜ਼ਰਾਂ ਨੂੰ ਸਹਿਯੋਗੀ ਵਿੱਚ ਬਦਲ ਸਕਦੀ ਹੈ।
ਨਾਲ ਹੀ ਛੋਟੇ ਜਨਤਕ ਅੱਪਡੇਟ ਸ਼ੇਅਰ ਕਰੋ (ਇੱਕ ਸਧਾਰਣ ਚੇਂਜਲੌਗ ਪੇਜ ਵੀ), ਤਾਂ ਲੋਕ ਗਤਿਭੀੜੀ ਵੇਖ ਸਕਣ। ਇਹ ਦੁਹਰਾਈ ਰਿਪੋਰਟਾਂ ਘਟਾਉਂਦਾ ਹੈ ਅਤੇ ਉੱਚ-ਗੁਣਵੱਤਾ ਫੀਡਬੈਕ ਦੇਣ ਲਈ ਯੂਜ਼ਰਾਂ ਨੂੰ ਪ੍ਰੇਰਿਤ ਕਰਦਾ ਹੈ।
ਲਾਂਚ ਦੇ ਪਹਿਲੇ ਹਫਤੇ ਵਿੱਚ “ਸਾਡੇ ਪਾਸ ਚੱਲ ਰਿਹਾ ਸੀ” ਅਸਲ ਵਰਤੋਂ ਨਾਲ ਮਿਲਦਾ ਹੈ। ਬੱਗ ਰਿਪੋਰਟਾਂ ਦੀ ਉਮੀਦ ਰੱਖੋ ਜੋ ਸਚੇ ਆਊਟੇਜ ਤੋਂ ਛੋਟੀ ਪਰੇਸ਼ਾਨੀਆਂ ਤੱਕ ਹਨ ਜੋ ਨਵੇਂ ਯੂਜ਼ਰ ਲਈ ਵੱਡੀਆਂ ਲੱਗਦੀਆਂ ਹਨ। ਲਕੜੀ ਸਬ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਨਹੀਂ—ਲਕੜੀ ਭਰੋਸਾ ਤੇਜ਼ੀ ਨਾਲ ਦੁਬਾਰਾ ਸਥਾਪਿਤ ਕਰਨ ਅਤੇ ਪਤਾ ਕਰਨ ਦੀ ਹੈ ਕਿ ਪ੍ਰੋਡਕਸ਼ਨ ਵਿੱਚ ਅਸਲ ਵਿੱਚ ਕੀ ਟੁੱਟਦਾ ਹੈ।
ਜਦੋਂ ਇੱਕ ਰਿਪੋਰਟ ਆਉਂਦੀ ਹੈ, ਪਹਿਲਾ ਫੈਸਲਾ ਮਿੰਟਾਂ ਵਿੱਚ ਕਰੋ, ਘੰਟਿਆਂ ਵਿੱਚ ਨਹੀਂ। ਇੱਕ ਸਧਾਰਣ ਟ੍ਰਾਇਅਜ ਟੈਮਪਲੇਟ ਤੁਹਾਨੂੰ ਹਰ ਮਾਮਲੇ 'ਤੇ ਵਿਚਾਰ ਕਰਨ ਤੋਂ ਬਚਾਉਂਦਾ:
ਇਸ ਨਾਲ ਦਰਸਾਇਆ ਜਾ ਸਕਦਾ ਹੈ ਕਿ ਕੀ ਹਾਟਫਿਕਸ ਲਾਇਕ ਹੈ ਜਾਂ ਅਗਲੇ ਪਲਾਨਡ ਰਿਲੀਜ਼ ਲਈ ਰੁਕ ਸਕਦਾ ਹੈ।
ਸ਼ੁਰੂਆਤੀ ਟੀਮਾਂ ਅਕਸਰ ਹਰ ਸ਼ਿਕਾਇਤ ਨੂੰ ਤਤਕਾਲ ਮਹੱਤਵਪੂਰਨ ਮੰਨ ਲੈਂਦੀਆਂ ਹਨ। ਵੱਖ ਕਰੋ:
“ਟੁੱਟਿਆ” ਤੁਰੰਤ ਠੀਕ ਕਰੋ। “ਪਰੇਸ਼ਾਨੀ” ਆਇਟਮ ਇਕੱਤਰ ਕਰੋ, ਥੀਮਾਂ ਵਿੱਚ ਗਰੁੱਪ ਕਰੋ, ਅਤੇ ਸਭ ਤੋਂ ਵੱਧ ਪ੍ਰਭਾਵ ਵਾਲੇ ਬੈਚਾਂ ਵਿੱਚ ਹੱਲ ਕਰੋ।
ਹਾਟਫਿਕਸ ਛੋਟੇ, ਵਾਪਸੀਯੋਗ, ਅਤੇ ਸਾਫ਼ ਤੌਰ 'ਤੇ ਜाँचਣਯੋਗ ਹੋਣੇ ਚਾਹੀਦੇ ਹਨ। ਡਿਪਲੌਇ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ:
ਜੇ ਸੰਭਵ ਹੋਵੇ, ਫੀਚਰ ਫਲੈਗ ਜਾਂ קੌਂਫ਼ਿਗਰੈਸ਼ਨ ਸਵਿੱਚ ਵਰਤੋ ਤਾਂ ਕਿ ਤੁਸੀਂ ਕਿਸੇ ਖਤਰਨਾਕ ਬਦਲਾਵ ਨੂੰ ਬਿਨਾਂ ਨਵੇਂ ਡਿਪਲੌਇ ਦੇ ਅਣ-ਚਾਲੂ ਕਰ ਸਕੋ।
ਇਕ ਜਨਤਕ ਜਾਂ ਅਰਧ-ਜਨਤਕ ਚੇਂਜਲੌਗ (/changelog) ਦੁਹਰਾਈ ਪ੍ਰਭਾਵ ਘਟਾਉਂਦਾ ਹੈ ਅਤੇ ਭਰੋਸਾ ਬਣਾਉਂਦਾ ਹੈ। ਸੰਖੇਪ ਰੱਖੋ: ਕੀ ਬਦਲਿਆ, ਕਿਸ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰਦਾ ਹੈ, ਅਤੇ ਯੂਜ਼ਰ ਨੂੰ ਅਗਲੇ ਕਦਮ ਕੀ ਕਰਨੇ ਹਨ।
ਬਹੁਤ ਸਾਰੀਆਂ v1 AI ਐਪਾਂ ਅਸਲ ਵਿਚ ਇਸ ਲਈ ਫੇਲ੍ਹ ਹੁੰਦੀਆਂ ਹਨ ਕਿ ਕੋਰ ਵਿਚਾਰ ਗਲਤ ਹੈ—ਉਹ ਇਸ ਲਈ ਫੇਲ੍ਹ ਹੁੰਦੀਆਂ ਹਨ ਕਿ ਲੋਕ "ਆਹਾ" ਮੋਮੈਂਟ ਤੱਕ ਜਲਦੀ ਨਹੀਂ ਪਹੁੰਚਦੇ। ਲਾਂਚ ਦੇ ਪਹਿਲੇ ਹਫਤੇ ਵਿੱਚ, ਓਨਬੋਰਡਿੰਗ ਅਤੇ UX ਸੋਧ ਆਮ ਤੌਰ 'ਤੇ ਸਭ ਤੋਂ ਵੱਡਾ ਪ੍ਰਭਾਵ ਰੱਖਦੀਆਂ ਹਨ।
ਨਵੀਂ ਖਾਤੇ 'ਤੇ (ਅਵਸ਼ਯ ਇੱਕ ਨਵਾਂ ਡਿਵਾਈਸ) ਆਪਣੀ ਸਾਇਨਅਪ ਅਤੇ ਪਹਿਲੀ-ਦੌੜ ਅਨੁਭਵ ਵਿੱਚੋਂ ਗੁਜ਼ਰੋ। ਹਰ ਮੋੜ ਉਤੇ ਨੋਟ ਕਰੋ ਜਿੱਥੇ ਤੁਸੀਂ ਹਿਚਕਿਚਾਓ, ਦੁਬਾਰਾ ਪੜ੍ਹੋ, ਜਾਂ ਸੋਚੋ "ਉਹ ਮੈਂ ਤੋਂ ਕੀ ਚਾਹੁੰਦੇ ਨੇ?" ਉਹੀ ਮੋੜ ਜਿੱਥੇ ਅਸਲ ਯੂਜ਼ਰ ਛੱਡਦੇ ਹਨ।
ਜੇ ਤੁਹਾਡੇ ਕੋਲ ਐਨਾਲਿਟਿਕਸ ਹੈ, ਤਾਂ ਦੇਖੋ:
ਤੁਹਾਡਾ ਲਕੜੀ ਇੱਕ ਛੋਟਾ, ਸਪਸ਼ਟ ਸਿੱਕਾ ਹੈ ਜੋ ਯੂਜ਼ਰ ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਮੁੱਲ ਤੱਕ ਲੈ ਜਾਵੇ। ਉਹ ਸਭ ਕੁਝ ਹਟਾਓ ਜੋ ਪਹਿਲੇ ਸਫਲ ਨਤੀਜੇ ਵਿੱਚ ਸਿੱਧਾ ਸਹਾਇਤਾ ਨਹੀਂ ਕਰਦਾ।
ਆਮ ਸੁਧਾਰ ਜੋ ਨਤੀਜਾ ਲਿਆਉਂਦੇ ਹਨ:
ਲੰਮੀ ਹੈਲਪ ਪੇਜ ਨੂੰ ਭੇਜਣ ਦੀ ਥਾਂ, ਫਰਕ ਵਾਲੀ ਥਿਕ ਥਾਂ 'ਤੇ "ਮਾਈਕ੍ਰੋ-ਹੈਲਪ" ਜੋੜੋ:
AI ਫੀਚਰਾਂ ਲਈ, ਪਹਿਲੇ ਤੋਂ ਉਮੀਦਾਂ ਸੈੱਟ ਕਰੋ: ਟੂਲ ਕਿਵੇਂ ਚੰਗਾ ਹੈ, ਕੀ ਨਹੀਂ ਕਰ ਸਕਦਾ, ਅਤੇ "ਵਧੀਆ ਪ੍ਰਾਂਪਟ" ਕੀ ਹੁੰਦਾ ਹੈ।
ਤੁਰੰਤ ਪ੍ਰਯੋਗ ਕਰਨ ਦਾ ਮਨ ਹੋ ਸਕਦਾ ਹੈ, ਪਰ ਛੋਟੇ ਟੈਸਟ ਤਦ ਹੀ ਲਾਭਕਾਰੀ ਹਨ ਜਦੋਂ ਤੁਹਾਡੀ ਇਵੈਂਟ ਟਰੇਕਿੰਗ ਸਥਿਰ ਹੋਵੇ ਅਤੇ ਸੈਂਪਲ ਸਾਈਜ਼ ਵਾਸਤਵ ਵਿੱਚ ਪ੍ਰਮਾਣਿਕ ਹੋਵੇ। ਪਹਿਲਾਂ ਘੱਟ-ਜੋਖਮ ਵਾਲੇ ਟੈਸਟ (ਕਾਪੀ, ਬਟਨ ਲੇਬਲ, ਡਿਫ਼ਾਲਟ ਟੈਮਪਲੇਟ) ਕਰੋ। ਹਰ ਟੈਸਟ ਇੱਕ ਨਤੀਜੇ 'ਤੇ ਕੇਂਦ੍ਰਿਤ ਰੱਖੋ—ਜਿਵੇਂ ਓਨਬੋਰਡਿੰਗ ਪੂਰਨਤਾ ਦਰ ਜਾਂ ਟਾਈਮ-ਟੂ-ਫਰਸਟ-ਸਕਸੈਸ—ਤਾਂ ਜੋ ਤੁਸੀਂ ਸਾਫ਼ ਫੈਸਲਾ ਕਰ ਸਕੋ।
v1 AI ਐਪ ਟੈਸਟਿੰਗ ਵਿੱਚ “ਠੀਕ” ਮਹਿਸੂਸ ਹੋ ਸਕਦੀ ਹੈ ਅਤੇ ਫਿਰ ਅਸਲ ਯੂਜ਼ਰ ਆਉਣ 'ਤੇ ਅਚਾਨਕ ਸੁਸਤ (ਅਤੇ ਮਹਿੰਗੀ) ਮਹਿਸੂਸ ਹੋ ਸਕਦੀ ਹੈ। ਪ੍ਰਦਰਸ਼ਨ ਅਤੇ ਲਾਗਤ ਨੂੰ ਇਕ ਹੀ ਸਮੱਸਿਆ ਸਮਝੋ: ਹਰ ਵਾਧੂ ਸਕਿੰਟ ਅਕਸਰ ਵਧੇਰੇ ਟੋਕਨ, ਵਧੇਰੇ ਰਿਟ੍ਰਾਈਜ਼, ਅਤੇ ਵੱਧ ਇੰਫ੍ਰਾਸਟਰੱਕਚਰ ਮਤਲਬ ਹੈ।
ਸਿਰਫ਼ AI ਕਾਲ ਨੂੰ ਮਾਪੋ ਨਾ। ਪੂਰੇ ਯੂਜ਼ਰਾਂ ਦੇ ਮਹਿਸੂਸ ਕਰਨ ਵਾਲੇ ਲੇਟੈਂਸੀ ਨੂੰ ਟ੍ਰੈਕ ਕਰੋ:
ਇਸਨੂੰ ਐਂਡਪੋਇੰਟ ਅਤੇ ਯੂਜ਼ਰ ਐਕਸ਼ਨ ਦੇ ਅਧਾਰ 'ਤੇ ਤੋੜੋ (ਸਰਚ, ਜਿਨਰੇਟ, ਸਮਰੀ ਆਦਿ)। ਇੱਕ “p95 ਲੇਟੈਂਸੀ” ਨੰਬਰ ਅਕਸਰ ਦੇਖਣ ਲਈ ਲੁਕਦਾ ਹੈ ਕਿ ਕਿੱਥੇ ਦੇਰ ਹੈ।
ਲੰਮੇ ਪ੍ਰਾਂਪਟ, ਲੰਬੇ ਆਉਟਪੁੱਟ, ਅਤੇ ਦੁਹਰਾਈਆਂ ਦੇ ਕਾਰਨ ਲਾਗਤ ਵਧ ਸਕਦੀ ਹੈ। ਕੁਝ ਆਮ ਹਥਿਆਰ ਜੋ UX ਨਾ ਖਰਾਬ ਕਰਨ:
ਜਦੋਂ ਕੁਝ ਸੁਸਤ ਜਾਂ ਫੇਲ ਹੋ ਰਿਹਾ ਹੋਵੇ ਤਾਂ “ਠੀਕ-ਠਾਕ” ਕੀ ਹੈ, ਇਹ ਪਰਿਭਾਸ਼ਿਤ ਕਰੋ।
ਮਾਡਲ ਕਾਲਾਂ ਅਤੇ ਟੂਲ ਕਾਲਾਂ 'ਤੇ ਟਾਈਮਆਉਟ ਲਗਾਓ। ਫਾਲਬੈਕ ਸ਼ਾਮਲ ਕਰੋ ਜਿਵੇਂ:
ਇੱਕ “ਸੇਫ ਮੋਡ” ਆਉਟਪੁੱਟ ਸਧਾਰਨ ਅਤੇ ਹੋਰ ਸੰਭਾਲਯੋਗ ਹੋ ਸਕਦੀ ਹੈ (ਛੋਟੀ, ਘੱਟ ਟੂਲ ਕਾਲਾਂ, ਸਾਫ਼ ਅਣਧਾਰਤਾ) ਤਾਂ ਕਿ ਲੋਡ ਦੌਰਾਨ ਐਪ ਜਵਾਬਦੇਹ ਰਹੇ।
ਲਾਂਚ ਤੋਂ ਬਾਅਦ, ਤੁਹਾਡਾ ਪ੍ਰਾਂਪਟ ਗੰਦੇ ਯੂਜ਼ਰ ਡੇਟਾ ਨਾਲ ਮਿਲੇਗਾ: ਅਧੂਰੇ ਸੰਦਰਭ, ਅਨੋਖੀ ਫਾਰਮੇਟਿੰਗ, ਅਸਪੱਸ਼ਟ ਮਨੁੱਖੀ ਬੇਨਤੀਆਂ। ਅਸਲ ਪ੍ਰਾਂਪਟ ਅਤੇ ਆਉਟਪੁੱਟ ਨਮੂਨਿਆਂ ਦੀ ਸਮੀਖਿਆ ਕਰੋ, ਫਿਰ ਟੈਮਪਲੇਟ ਟਾਈਟਨ ਕਰੋ:
ਛੋਟੇ ਪ੍ਰਾਂਪਟ ਸੋਧ ਅਕਸਰ ਸੀਧੇ ਟੋਕਨ ਅਤੇ ਲੇਟੈਂਸੀ ਨੂੰ ਕੱਟ ਦਿੰਦੇ ਹਨ—ਬਿਨਾਂ ਇੰਫ੍ਰਾਸਟਰੱਕਚਰ ਨੂੰ ਛੂਹੇ।
v1 ਨੂੰ ਸ਼ਿਪ ਕਰਨ ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਤੁਹਾਡੀ ਐਪ ਅਸਲ ਯੂਜ਼ਰਾਂ ਅਤੇ ਅਸਲ ਵਰਤਾਰੇ ਨਾਲ ਮਿਲਦੀ ਹੈ। ਸੁਰੱਖਿਆ ਅਤੇ ਗੋਪਨੀਯਤਾ ਦੀਆਂ ਸਮੱਸਿਆਵਾੰ ਆਮ ਤੌਰ 'ਤੇ ਨਰਮ ਬੇਟਾ ਵਿੱਚ ਨਹੀਂ ਦਿਖਦੀਆਂ; ਉਹ ਉੱਗਣਦੀਆਂ ਹਨ ਜਦੋਂ ਕੋਈ ਸੰਵੇਦਨਸ਼ੀਲ ਡੇਟਾ ਪ੍ਰਾਂਪਟ ਵਿੱਚ ਚਿਪਕਾ ਦਿੰਦਾ ਹੈ, ਕਿਨ੍ਹੇ ਲੋਕਾਂ ਨੇ ਕਿਸੇ ਲਿੰਕ ਨੂੰ ਪਬਲਿਕ ਕੀਤਾ, ਜਾਂ ਕੋਈ ਰਿਕਵੇਸਟਸ ਆਟੋਮੈਟ ਕਰਦਾ ਹੈ।
AI ਐਪਾਂ ਅਕਸਰ “ਅਣਜਾਣ ਡੇਟਾ ਏਗਜ਼ੌਸਟ” ਬਣਾਉਂਦੀਆਂ ਹਨ: ਪ੍ਰਾਂਪਟ, ਮਾਡਲ ਆਉਟਪੁੱਟ, ਟੂਲ ਕਾਲ, ਸਕਰੀਨਸ਼ੌਟ, ਅਤੇ ਐਰਰ ਟਰੇਸ। ਲਾਂਚ ਤੋਂ ਬਾਅਦ, ਇੱਕ ਛੋਟੀ ਲੋਗ ਸਮੀਖਿਆ ਕਰੋ ਜਿਸਦਾ ਇੱਕ ਮਕਸਦ ਹੋਵੇ: ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਕਿ ਤੁਸੀਂ ਜ਼ਿਆਦਾ ਯੂਜ਼ਰ ਡੇਟਾ ਸਟੋਰ ਨਹੀਂ ਕਰ ਰਹੇ ਜਿੰਨ੍ਹਾਂ ਦੀ ਲੋੜ ਨਹੀਂ ਹੈ।
ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰੋ:
ਜੇ ਤੁਹਾਨੂੰ ਡੀਬੱਗਿੰਗ ਲਈ ਲੋਗ ਚਾਹੀਦੇ ਹਨ, ਤਾਂ ਸੰਵੇਦਨਸ਼ੀਲ ਖੇਤਰਾਂ ਲਈ ਰੈਡੈਕਸ਼ਨ (ਮਾਸਕਿੰਗ) ਬਾਰੇ ਸੋਚੋ ਅਤੇ ਡਿਫੌਲਟ ਰੂਪ ਵਿੱਚ ਵਿਵਰਣਤਾ ਲੌਗਿੰਗ ਬੰਦ ਰੱਖੋ।
ਲਾਂਚ ਬਾਅਦ ਇਹ ਜਾਂਚਣ ਦਾ ਸਮਾਂ ਹੁੰਦਾ ਹੈ ਕਿ ਮਾਲਕੀ ਅਤੇ ਬਾਊਂਡਰੀ ਸਹੀ ਹਨ:
ਇੱਕ ਆਮ v1 ਫਾਲਟ ਇਹ ਹੈ ਕਿ “ਸਪੋਰਟ ਹਰ ਚੀਜ਼ ਵੇਖ ਸਕਦਾ ਹੈ” ਕਿਉਂਕਿ ਇਹ ਸਹੂਲਤਕਾਰਕ ਹੈ। ਇਸ ਦੀ ਥਾਂ, ਸਪੋਰਟ ਨੂੰ ਨਿਸ਼ਾਨਾ ਟੂਲ ਦਿਓ (ਉਦਾਹਰਣ ਲਈ ਮੈਟਾ ਡੇਟਾ ਵੇਖੋ, ਪੂਰੇ ਸਮੱਗਰੀ ਨਹੀਂ) ਅਤੇ ਇਕ ਆਡੀਟ ਟ੍ਰੇਲ ਜੋ ਦਿਖਾਏ ਕਿ ਕਿਸਨੇ ਕੀ ਵੇਖਿਆ।
ਸਧਾਰਣ ਸੁਰੱਖਿਆ ਉਹ ਆਉਟੇਜ ਅਤੇ ਮਹਿੰਗੇ ਮਾਡਲ ਬਿੱਲਾਂ ਨੂੰ ਰੋਕ ਸਕਦੀ ਹੈ:
AI-ਖਾਸ ਦੁਰਪਯੋਗਾਂ ਲਈ ਵੀ ਨਜ਼ਰ ਰੱਖੋ ਜਿਵੇਂ ਪ੍ਰਾਂਪਟ ਇੰਜੈਕਸ਼ਨ ਕੋਸ਼ਿਸ਼ਾਂ ("ਪਿਛਲੇ ਨਿਰਦੇਸ਼ਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰੋ...") ਅਤੇ ਸਿਸਟਮ ਪ੍ਰਾਂਪਟ ਜਾਂ ਛੁਪੇ ਟੂਲਾਂ ਦੀ ਜਾਂਚ ਕਰਨ ਲਈ ਬਾਰ-ਬਾਰ ਪਰੋਬਿੰਗ। ਦਿਨ-ਇੱਕ 'ਤੇ ਤੁਹਾਨੂੰ ਪੂਰਨ ਰੱਖਿਅਤ ਦੀ ਲੋੜ ਨਹੀਂ—ਸਿਰਫ ਪਤਾ ਲਗਾਉਣ ਅਤੇ ਸੀਮਾਂ।
ਇਨੂੰ ਛੋਟਾ ਅਤੇ ਕਾਰਵਾਈਯੋਗ ਰੱਖੋ:
ਜਦੋਂ ਕੁਝ ਗੜਬੜ ਹੁੰਦੀ ਹੈ, ਤੇਜ਼ੀ ਅਤੇ ਸਪਸ਼ਟਤਾ ਪੂਰਨਤਾ ਤੋਂ ਵੱਧ ਮਿਹਤਵਪੂਰਨ ਹੋਂਦੀਆਂ ਹਨ—ਖ਼ਾਸ ਕਰਕੇ ਪਹਿਲੇ ਹਫਤੇ ਵਿੱਚ।
ਲਾਂਚ ਤੋਂ ਬਾਅਦ, “AI ਸੁਧਾਰਣਾ” ਇੱਕ ਅਸਪਸ਼ਟ ਲਕੜੀ ਬੰਦ ਹੋ ਕੇ ਕੁਝ ਨਿਯੰਤ੍ਰਿਤ ਬਦਲਾਅ ਬਣ ਜਾਂਦੀ ਹੈ ਜੋ ਤੁਸੀਂ ਮਾਪ ਸਕੋ। ਵੱਡੇ ਬਦਲਾਅ ਇਹ ਹਨ ਕਿ ਮਾਡਲ ਵਿਹਾਰ ਨੂੰ ਉਤਪਾਦ ਵਿਹਾਰ ਜਿਵੇਂ ਵਪਰੇ: ਤੁਸੀਂ ਬਦਲਾਅ ਯੋਜਨਾ ਬਣਾਉਂਦੇ, ਪਰੀਖਿਆ ਕਰਦੇ, ਸੁਰੱਖਿਅਤ ਤਰੀਕੇ ਨਾਲ ਰਿਲੀਜ਼ ਕਰਦੇ, ਅਤੇ ਨਤੀਜੇ ਮਾਨੀਟਰ ਕਰਦੇ ਹੋ।
ਅਾਕਸਰ AI ਐਪ ਕੁਝ ਲੀਵਰ ਰਾਹੀਂ ਬਦਲਦੇ ਹਨ:
ਛੋਟੇ ਪ੍ਰਾਂਪਟ ਸੋਧ ਵੀ ਨਤੀਜਿਆਂ ਨੂੰ ਮਹੱਤਵਪੂਰਨ ਤੌਰ 'ਤੇ ਬਦਲ ਸਕਦੇ ਹਨ, ਇਸ ਲਈ ਉਨ੍ਹਾਂ ਨੂੰ ਰਿਲੀਜ਼ ਵਜੋਂ ਦੇਖੋ।
ਇੱਕ ਨਿਰੀਲਾ ਮੂਲਾਂਕਣ ਸੈਟ ਬਣਾਓ: 30–200 ਅਸਲੀ ਯੂਜ਼ਰ ਸਿਨਾਰਿਓ (ਇਨਾਂ ਨੂੰ ਅਨਾਨੀਮ ਕੀਤਾ) ਜੋ ਤੁਹਾਡੇ ਕੋਰ ਟਾਸਕ ਅਤੇ ਐਡਜ ਕੇਸਾਂ ਦਾ ਪ੍ਰਤੀਨਿਧਿਤ ਕਰਦੇ ਹਨ। ਹਰ ਇੱਕ ਲਈ ਪਰਿਭਾਸ਼ਿਤ ਕਰੋ ਕਿ “ਛੰਗਾ” ਕੀ ਹੈ—ਕਈ ਵਾਰ ਇੱਕ ਰੇਫਰੰਸ ਜਵਾਬ, ਕਈ ਵਾਰ ਇੱਕ ਚੈੱਕਲਿਸਟ (ਸਹੀ ਸਰੋਤ ਵਰਤੇ ਗਏ, ਸਹੀ ਫਾਰਮੈਟ, ਕੋਈ ਪਾਲਸੀ ਉਲੰਘਣਾ ਨਹੀਂ)।
ਇਸ ਟੈਸਟ ਸੈਟ ਨੂੰ ਚਲਾਓ:
ਇੱਕ ਰੋਲਬੈਕ ਯੋਜਨਾ ਰੱਖੋ: ਪਹਿਲਾ ਪ੍ਰਾਂਪਟ/ਮਾਡਲ ਕੰਫਿਗ ਵਰਜ਼ਨ ਸੰਗਰਹਿਤ ਰੱਖੋ ਤਾਂ ਜੋ ਤੁਸੀਂ ਜਲਦੀ ਵਾਪਸ ਕਰ ਸਕੋ ਜੇ ਗੁਣਵੱਤਾ ਘੱਟ ਹੋ ਜਾਏ। (ਇਸੇ ਜਗ੍ਹਾ 'ਤੇ ਪਲੇਟਫਾਰਮ-ਲੇਵਲ ਵਰਜਨਿੰਗ/ਸਨੇਪਸ਼ਾਟ—ਜਿਵੇਂ Koder.ai—ਤੁਹਾਡੇ ਪ੍ਰਾਂਪਟ/ਕਨਫਿਗ ਵਰਜਨ ਕੰਟਰੋਲ ਨਾਲ ਮਿਲ ਕੇ ਮਦਦ ਕਰ ਸਕਦੇ ਹਨ)।
ਗੁਣਵੱਤਾ ਬਿਨਾਂ ਕੋਡ ਬਦਲਾਅ ਦੇ ਵੀ ਘਟ ਸਕਦੀ ਹੈ—ਨਵੇਂ ਯੂਜ਼ਰ ਸੈਗਮੈਂਟ, ਨਵੇਂ ਸਮੱਗਰੀ ਤੁਹਾਡੇ ਨੌਲਿਜ ਬੇਸ ਵਿੱਚ, ਜਾਂ ਉਪਸਟਰੀਮ ਮਾਡਲ ਅਪਡੇਟਸ ਨਤੀਜਿਆਂ ਨੂੰ ਬਦਲ ਸਕਦੇ ਹਨ। ਸਮੇਂ-ਸਮੇਂ 'ਤੇ ਮੁਲਾਂਕਣ ਸਕੋਰ ਮਾਨੀਟਰ ਕਰੋ ਅਤੇ ਨਵੇਂ ਗੱਲਬਾਤਾਂ ਦੀ ਨਮੂਨਾ ਜਾਂਚ ਕਰੋ।
ਜਦੋਂ ਅੱਪਡੇਟਸ ਯੂਜ਼ਰ ਨਤੀਜਿਆਂ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰਦੇ ਹਨ (ਟੋਨ, ਕਠੋਰ ਇਨਕਾਰ, ਵੱਖਰਾ ਫਾਰਮੈਟ), ਯੂਜ਼ਰਾਂ ਨੂੰ ਸਪਸ਼ਟ ਰੂਪ ਵਿੱਚ ਰিলੀਜ਼ ਨੋਟ ਜਾਂ ਇਨ-ਐਪ ਸੁਨੇਹੇ ਰਾਹੀਂ ਦੱਸੋ। ਉਮੀਦਾਂ ਸੈੱਟ ਕਰਨ ਨਾਲ “ਬੁਰਾ ਹੋ ਗਿਆ” ਦੀਆਂ ਸ਼ਿਕਾਇਤਾਂ ਘਟਦੀਆਂ ਹਨ ਅਤੇ ਯੂਜ਼ਰ ਆਪਣੇ ਵਰਕਫਲੋ ਅਨੁਕੂਲਿਤ ਕਰ ਸਕਦੇ ਹਨ।
v1 ਨੂੰ ਸ਼ਿਪ ਕਰਨਾ ਮੁੱਖ ਤੌਰ 'ਤੇ ਇਹ ਸਾਬਤ ਕਰਨਾ ਹੈ ਕਿ ਉਤਪਾਦ ਕੰਮ ਕਰਦਾ ਹੈ। ਇਸਨੂੰ ਅਸਲ ਉਤਪਾਦ ਬਣਾਉਣ ਲਈ, ਇੱਕ ਲੂਪ ਦੁਹਰਾਉ: ਸਿੱਖੋ → ਫੈਸਲਾ ਕਰੋ → ਸ਼ਿਪ ਕਰੋ → ਪੁਸ਼ਟੀ ਕਰੋ।
ਹਰ ਸਿਗਨਲ (ਸਪੋਰਟ ਸੁਨੇਹੇ, ਸਮੀਖਿਆਵਾਂ, ਐਨਾਲਿਟਿਕਸ, ਐਰਰ ਰਿਪੋਰਟ) ਨੂੰ ਇੱਕ ਸਿੰਗਲ ਬੈਕਲੌਗ ਵਿੱਚ ਇਕੱਤਰ ਕਰੋ। ਫਿਰ ਹਰ ਆਈਟਮ ਨੂੰ ਸਪਸ਼ਟ ਰੂਪ ਵਿੱਚ ਢਾਲੋ:
ਪ੍ਰਾਇਰਟੀ ਲਈ, ਇੱਕ ਸਧਾਰਨ ਪਰਭਾਵ ਵਿਰੁੱਧ ਕੋਸ਼ਿਸ਼ ਸਕੋਰ ਚੰਗਾ ਕੰਮ ਕਰਦਾ ਹੈ। ਪ੍ਰਭਾਵ ਰੀਟੇਨਸ਼ਨ, ਐਕਟੀਵੇਸ਼ਨ, ਜਾਂ ਰਿਵੈਨਿਊ ਨਾਲ ਜੁੜ ਸਕਦਾ ਹੈ; ਕੋਸ਼ਿਸ਼ ਵਿੱਚ ਉਤਪਾਦ ਕੰਮ ਅਤੇ AI ਕੰਮ (ਪ੍ਰਾਂਪਟ ਸੋਧ, ਮੁਲਾਂਕਣ ਅਪਡੇਟ, ਮਾਡਲ ਰੂਟਿੰਗ, QA ਸਮਾਂ) ਸ਼ਾਮਲ ਕਰੋ। ਇਹ ਰੋਕਦਾ ਹੈ ਕਿ “ਛੋਟੀ” AI ਸੋਧ ਬਿਨਾਂ ਟੈਸਟਿੰਗ ਦੇ ਘੁਸ ਆ ਜਾਏ।
ਆਪਣੀ ਟੀਮ ਆਕਾਰ ਅਤੇ ਜੋਖਮ ਬਰਦਾਸ਼ਤ ਕਰਨ ਦੇ ਅਨੁਕੂਲ ਰਿਧਮ ਚੁਣੋ: ਹਫਤਾਵਾਰੀ ਜੇ ਤੁਹਾਨੂੰ ਤੇਜ਼ ਸਿੱਖਣਾ ਹੈ, ਦਵੀ-ਹਫਤਾਵਾਰੀ ਜ਼ਿਆਦਾਤਰ ਟੀਮਾਂ ਲਈ, ਮਾਸਿਕ ਜੇ ਤਬਦੀਲੀਆਂ ਨੂੰ ਭਾਰੀ QA ਜਾਂ ਅਨੁਕੂਲਤਾ ਦੀ ਲੋੜ ਹੈ। ਜੋ ਵੀ ਚੁਣੋ, ਇਸਨੂੰ ਸਥਿਰ ਰੱਖੋ ਅਤੇ ਦੋ ਨਿਯਮ ਜੋੜੋ:
v1.1 ਨੂੰ ਭਰੋਸਾਯੋਗਤਾ + ਅਪਨਾਉਣ ਵਜੋਂ ਦੇਖੋ: ਸਿਖਰ ਦੇ ਰੁਕਾਵਟਾਂ ਨੂੰ ਠੀਕ ਕਰਨਾ, ਓਨਬੋਰਡਿੰਗ ਤਿਉਰ ਕਰਨਾ, ਸਫਲਤਾ ਦਰ ਵਧਾਉਣਾ, ਅਤੇ ਪ੍ਰਤੀ-ਟਾਸਕ ਲਾਗਤ ਘਟਾਉਣਾ। v2 ਵੱਡੇ ਦਾਅਵਾਂ ਲਈ ਰੱਖੋ: ਨਵੇਂ ਵਰਕਫਲੋ, ਨਵੇਂ ਸੈਗਮੈਂਟ, ਇੰਟਿਗ੍ਰੇਸ਼ਨ, ਜਾਂ ਵਾਧਾ ਪ੍ਰਯੋਗ।
ਹਰ ਰਿਲੀਜ਼ ਦਸਤਾਵੇਜ਼ ਅਪਡੇਟ ਕਰੇ ਜੋ ਭਵਿੱਖੀ ਸਪੋਰਟ ਲੋਡ ਘਟਾਏ: ਸੈਟਅਪ ਨੋਟ, ਜਾਣੇ ਹੋਏ ਸੀਮਤੀਆਂ, ਸਪੋਰਟ ਸਕ੍ਰਿਪਟ, ਅਤੇ FAQ।
ਇੱਕ ਸਧਾਰਨ ਨਿਯਮ: ਜੇ ਤੁਸੀਂ ਕਿਸੇ ਸਵਾਲ ਦਾ ਦੋ ਵਾਰੀ ਜਵਾਬ ਦਿੱਤਾ, ਤਾਂ ਉਹ ਦਸਤਾਵੇਜ਼ ਵਿੱਚ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ (ਤੁਹਾਡਾ /blog ਜੀਵਤ ਗਾਈਡ ਪ੍ਰਕਾਸ਼ਿਤ ਕਰਨ ਲਈ ਇੱਕ ਚੰਗੀ ਜਗ੍ਹਾ ਹੈ)। ਜੇ ਤੁਸੀਂ Koder.ai ਵਰਗੇ ਪਲੇਟਫਾਰਮ ਨਾਲ ਬਣਾਉਂਦੇ ਹੋ, ਤਾਂ ਇਹ ਵੀ ਦਸਤਾਵੇਜ਼ ਕਰੋ ਕਿ ਪਲੇਟਫਾਰਮ ਕੀ ਸੰਭਾਲਦਾ ਹੈ (ਡਿਪਲੌਇਮੈਂਟ, ਹੋਸਟਿੰਗ, ਰੋਲਬੈਕ) ਅਤੇ ਤੁਸੀਂ ਕੀ ਦੇਖਭਾਲ ਕਰਦੇ ਹੋ (ਪ੍ਰਾਂਪਟ, ਮੁਲਾਂਕਣ, ਨੀਤੀਆਂ), ਤਾਂ ਜਦੋਂ ਤੁਸੀ ਸਕੇਲ ਕਰੋ ਤਾਂ ਓਪਰੇਸ਼ਨਲ ਜ਼ਿੰਮੇਵਾਰੀ ਸਪਸ਼ਟ ਰਹੇ।
For an AI-built v1, a “launch” is a decision about who can use the product, what you’re promising, and what you’re trying to learn. It can be:
Pick the smallest launch that still tests your riskiest assumptions about AI usefulness and reliability.
Choose one primary goal and let it drive scope:
A simple rule: if a feature doesn’t support the goal, delay it.
Define observable targets so you can make decisions quickly.
Tie each target to a metric you can actually measure from your dashboards.
Cover the “boring basics” first:
/health endpointIf users can’t reliably reach the app, nothing else matters.
Test tracking with real flows, not just installation:
Also log AI-specific failures (timeouts, provider errors, tool failures, empty/garbled outputs) so you can diagnose quality issues.
Keep it executable under stress:
Write it down in a shared runbook so you’re not improvising mid-incident.
Start with one North Star tied to value delivered (successful outcomes), then add a few supporting metrics:
Avoid vanity metrics (pageviews, raw chat counts, tokens generated) unless they drive a concrete action.
Track signals that reflect trust and usefulness:
Segment by use case and user type—averages often hide where the AI is failing.
Treat performance and cost as one system:
Watch for cost anomalies with alerts so you catch runaway spend early.
Prioritize basics that prevent data leaks and abuse:
You don’t need perfect defenses on day one—focus on limits, visibility, and a clear response path.