source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3865

Last change on this file since 3865 was 3865, checked in by matszpk, 18 months ago

CLRadeonExtender: AsmRegAlloc?: tentative version of the createRoutineData.

File size: 105.6 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558/** Simple cache **/
559
560// map of last SSAId for routine, key - varid, value - last SSA ids
561class CLRX_INTERNAL LastSSAIdMap: public
562            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
563{
564public:
565    LastSSAIdMap()
566    { }
567   
568    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
569    {
570        auto res = insert({ vreg, { ssaId } });
571        if (!res.second)
572            res.first->second.insertValue(ssaId);
573        return res.first;
574    }
575   
576    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
577    {
578        auto it = find(vreg);
579        if (it != end())
580             it->second.eraseValue(ssaId);
581    }
582   
583    size_t weight() const
584    { return size(); }
585};
586
587typedef LastSSAIdMap RBWSSAIdMap;
588
589struct CLRX_INTERNAL RetSSAEntry
590{
591    std::vector<size_t> routines;
592    VectorSet<size_t> ssaIds;
593};
594
595typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
596
597struct CLRX_INTERNAL RoutineData
598{
599    // rbwSSAIdMap - read before write SSAId's map
600    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
601    LastSSAIdMap curSSAIdMap;
602    LastSSAIdMap lastSSAIdMap;
603   
604    size_t weight() const
605    { return rbwSSAIdMap.size() + lastSSAIdMap.weight(); }
606};
607
608struct CLRX_INTERNAL FlowStackEntry
609{
610    size_t blockIndex;
611    size_t nextIndex;
612    bool isCall;
613    std::unordered_map<AsmSingleVReg, size_t> prevSSAIds;
614    RetSSAIdMap prevRetSSAIdSets;
615};
616
617struct CLRX_INTERNAL FlowStackEntry2
618{
619    size_t blockIndex;
620    size_t nextIndex;
621};
622
623
624struct CLRX_INTERNAL CallStackEntry
625{
626    size_t callBlock; // index
627    size_t callNextIndex; // index of call next
628    size_t routineBlock;    // routine block
629};
630
631class ResSecondPointsToCache: public std::vector<bool>
632{
633public:
634    explicit ResSecondPointsToCache(size_t n) : std::vector<bool>(n<<1, false)
635    { }
636   
637    void increase(size_t i)
638    {
639        if ((*this)[i<<1])
640            (*this)[(i<<1)+1] = true;
641        else
642            (*this)[i<<1] = true;
643    }
644   
645    cxuint count(size_t i) const
646    { return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1]; }
647};
648
649typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
650typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
651
652static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
653              size_t origId, size_t destId)
654{
655    auto res = rmap.insert({ vreg, {} });
656    res.first->second.push_back({ origId, destId });
657}
658
659static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
660            const LastSSAIdMap* stackVarMap,
661            std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
662            FlowStackEntry2& entry, const SSAEntry& sentry,
663            RBWSSAIdMap* cacheSecPoints)
664{
665    const SSAInfo& sinfo = sentry.second;
666    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
667   
668    if (res.second && sinfo.readBeforeWrite)
669    {
670        if (cacheSecPoints != nullptr)
671        {
672            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
673            if (!res.second)
674                res.first->second.insertValue(sinfo.ssaIdBefore);
675        }
676       
677        if (stackVarMap != nullptr)
678        {
679           
680            // resolve conflict for this variable ssaId>.
681            // only if in previous block previous SSAID is
682            // read before all writes
683            auto it = stackVarMap->find(sentry.first);
684           
685            if (it != stackVarMap->end())
686            {
687                // found, resolve by set ssaIdLast
688                for (size_t ssaId: it->second)
689                {
690                    if (ssaId > sinfo.ssaIdBefore)
691                    {
692                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
693                            sentry.first.index  << ": " <<
694                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
695                        insertReplace(*replacesMap, sentry.first, ssaId,
696                                    sinfo.ssaIdBefore);
697                    }
698                    else if (ssaId < sinfo.ssaIdBefore)
699                    {
700                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
701                            sentry.first.index  << ": " <<
702                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
703                        insertReplace(*replacesMap, sentry.first,
704                                        sinfo.ssaIdBefore, ssaId);
705                    }
706                    /*else
707                        std::cout << "  noinsertreplace: " <<
708                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
709                }
710            }
711        }
712    }
713}
714
715typedef std::unordered_map<size_t, std::pair<size_t, size_t> > PrevWaysIndexMap;
716
717static void useResSecPointCache(SSAReplacesMap* replacesMap,
718        const LastSSAIdMap* stackVarMap,
719        const std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
720        const RBWSSAIdMap* resSecondPoints, size_t nextBlock,
721        RBWSSAIdMap* destCacheSecPoints)
722{
723    std::cout << "use resSecPointCache for " << nextBlock <<
724            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
725    for (const auto& sentry: *resSecondPoints)
726    {
727        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
728        if (destCacheSecPoints != nullptr && !alreadyRead)
729        {
730            auto res = destCacheSecPoints->insert(sentry);
731            if (!res.second)
732                for (size_t srcSSAId: sentry.second)
733                    res.first->second.insertValue(srcSSAId);
734        }
735       
736        if (stackVarMap != nullptr)
737        {
738            auto it = stackVarMap->find(sentry.first);
739           
740            if (it != stackVarMap->end() && !alreadyRead)
741            {
742                // found, resolve by set ssaIdLast
743                for (size_t ssaId: it->second)
744                {
745                    for (size_t secSSAId: sentry.second)
746                    {
747                        if (ssaId > secSSAId)
748                        {
749                            std::cout << "  insertreplace: " <<
750                                sentry.first.regVar << ":" <<
751                                sentry.first.index  << ": " <<
752                                ssaId << ", " << secSSAId << std::endl;
753                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
754                        }
755                        else if (ssaId < secSSAId)
756                        {
757                            std::cout << "  insertreplace2: " <<
758                                sentry.first.regVar << ":" <<
759                                sentry.first.index  << ": " <<
760                                ssaId << ", " << secSSAId << std::endl;
761                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
762                        }
763                        /*else
764                            std::cout << "  noinsertreplace: " <<
765                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
766                    }
767                }
768            }
769        }
770    }
771}
772
773static void addResSecCacheEntry(const std::unordered_map<size_t, RoutineData>& routineMap,
774                const std::vector<CodeBlock>& codeBlocks,
775                SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
776                size_t nextBlock)
777{
778    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
779    //std::stack<CallStackEntry> callStack = prevCallStack;
780    // traverse by graph from next block
781    std::deque<FlowStackEntry2> flowStack;
782    flowStack.push_back({ nextBlock, 0 });
783    std::vector<bool> visited(codeBlocks.size(), false);
784   
785    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
786   
787    RBWSSAIdMap cacheSecPoints;
788   
789    while (!flowStack.empty())
790    {
791        FlowStackEntry2& entry = flowStack.back();
792        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
793       
794        if (entry.nextIndex == 0)
795        {
796            // process current block
797            if (!visited[entry.blockIndex])
798            {
799                visited[entry.blockIndex] = true;
800                std::cout << "  resolv: " << entry.blockIndex << std::endl;
801               
802                const RBWSSAIdMap* resSecondPoints =
803                            resSecondPointsCache.use(entry.blockIndex);
804                if (resSecondPoints == nullptr)
805                    for (auto& sentry: cblock.ssaInfoMap)
806                        handleSSAEntryWhileResolving(nullptr, nullptr,
807                                alreadyReadMap, entry, sentry,
808                                &cacheSecPoints);
809                else // to use cache
810                {
811                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
812                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
813                    flowStack.pop_back();
814                    continue;
815                }
816            }
817            else
818            {
819                // back, already visited
820                std::cout << "resolv already: " << entry.blockIndex << std::endl;
821                flowStack.pop_back();
822                continue;
823            }
824        }
825       
826        /*if (!callStack.empty() &&
827            entry.blockIndex == callStack.top().callBlock &&
828            entry.nextIndex-1 == callStack.top().callNextIndex)
829            callStack.pop(); // just return from call
830        */
831        if (entry.nextIndex < cblock.nexts.size())
832        {
833            /*if (cblock.nexts[entry.nextIndex].isCall)
834                callStack.push({ entry.blockIndex, entry.nextIndex,
835                            cblock.nexts[entry.nextIndex].block });*/
836            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
837            entry.nextIndex++;
838        }
839        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
840                // if have any call then go to next block
841                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
842                 !cblock.haveReturn && !cblock.haveEnd)
843        {
844            // add toResolveMap ssaIds inside called routines
845            for (const auto& next: cblock.nexts)
846                if (next.isCall)
847                {
848                    const RoutineData& rdata = routineMap.find(next.block)->second;
849                    for (const auto& v: rdata.rbwSSAIdMap)
850                        alreadyReadMap.insert({v.first, entry.blockIndex });
851                    for (const auto& v: rdata.lastSSAIdMap)
852                        alreadyReadMap.insert({v.first, entry.blockIndex });
853                }
854           
855            flowStack.push_back({ entry.blockIndex+1, 0 });
856            entry.nextIndex++;
857        }
858        else // back
859        {
860            // remove old to resolve in leaved way to allow collecting next ssaId
861            // before write (can be different due to earlier visit)
862            for (const auto& next: cblock.nexts)
863                if (next.isCall)
864                {
865                    const RoutineData& rdata = routineMap.find(next.block)->second;
866                    for (const auto& v: rdata.rbwSSAIdMap)
867                    {
868                        auto it = alreadyReadMap.find(v.first);
869                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
870                            alreadyReadMap.erase(it);
871                    }
872                    for (const auto& v: rdata.lastSSAIdMap)
873                    {
874                        auto it = alreadyReadMap.find(v.first);
875                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
876                            alreadyReadMap.erase(it);
877                    }
878                }
879           
880            for (const auto& sentry: cblock.ssaInfoMap)
881            {
882                auto it = alreadyReadMap.find(sentry.first);
883                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
884                    // remove old to resolve in leaved way to allow collecting next ssaId
885                    // before write (can be different due to earlier visit)
886                    alreadyReadMap.erase(it);
887            }
888            std::cout << "  popresolv" << std::endl;
889            flowStack.pop_back();
890        }
891    }
892   
893    resSecondPointsCache.put(nextBlock, cacheSecPoints);
894}
895
896
897static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
898        const std::unordered_map<size_t, RoutineData>& routineMap,
899        const std::vector<CodeBlock>& codeBlocks,
900        const PrevWaysIndexMap& prevWaysIndexMap,
901        const std::vector<bool>& waysToCache, ResSecondPointsToCache& cblocksToCache,
902        SimpleCache<size_t, LastSSAIdMap>& resFirstPointsCache,
903        SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
904        SSAReplacesMap& replacesMap)
905{
906    size_t nextBlock = prevFlowStack.back().blockIndex;
907    auto pfEnd = prevFlowStack.end();
908    --pfEnd;
909    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
910    LastSSAIdMap stackVarMap;
911   
912    size_t pfStartIndex = 0;
913    {
914        auto pfPrev = pfEnd;
915        --pfPrev;
916        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
917        if (it != prevWaysIndexMap.end())
918        {
919            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
920            if (cached!=nullptr)
921            {
922                std::cout << "use pfcached: " << it->second.first << ", " <<
923                        it->second.second << std::endl;
924                stackVarMap = *cached;
925                pfStartIndex = it->second.second+1;
926            }
927        }
928    }
929   
930    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
931    {
932        const FlowStackEntry2& entry = *pfit;
933        std::cout << "  apply: " << entry.blockIndex << std::endl;
934        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
935        for (const auto& sentry: cblock.ssaInfoMap)
936        {
937            const SSAInfo& sinfo = sentry.second;
938            if (sinfo.ssaIdChange != 0)
939                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
940        }
941        if (entry.nextIndex > cblock.nexts.size())
942            for (const NextBlock& next: cblock.nexts)
943                if (next.isCall)
944                {
945                    std::cout << "  applycall: " << entry.blockIndex << ": " <<
946                            entry.nextIndex << ": " << next.block << std::endl;
947                    const LastSSAIdMap& regVarMap =
948                            routineMap.find(next.block)->second.lastSSAIdMap;
949                    for (const auto& sentry: regVarMap)
950                        stackVarMap[sentry.first] = sentry.second;
951                }
952       
953        // put to first point cache
954        if (waysToCache[pfit->blockIndex] && !resFirstPointsCache.hasKey(pfit->blockIndex))
955        {
956            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
957            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
958        }
959    }
960   
961    RBWSSAIdMap cacheSecPoints;
962    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
963                cblocksToCache.count(nextBlock)>=2;
964   
965    //std::stack<CallStackEntry> callStack = prevCallStack;
966    // traverse by graph from next block
967    std::deque<FlowStackEntry2> flowStack;
968    flowStack.push_back({ nextBlock, 0 });
969    std::vector<bool> visited(codeBlocks.size(), false);
970   
971    // already read in current path
972    // key - vreg, value - source block where vreg of conflict found
973    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
974   
975    while (!flowStack.empty())
976    {
977        FlowStackEntry2& entry = flowStack.back();
978        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
979       
980        if (entry.nextIndex == 0)
981        {
982            // process current block
983            if (!visited[entry.blockIndex])
984            {
985                visited[entry.blockIndex] = true;
986                std::cout << "  resolv: " << entry.blockIndex << std::endl;
987               
988                const RBWSSAIdMap* resSecondPoints =
989                        resSecondPointsCache.use(entry.blockIndex);
990                if (resSecondPoints == nullptr)
991                    for (auto& sentry: cblock.ssaInfoMap)
992                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
993                                alreadyReadMap, entry, sentry,
994                                toCache ? &cacheSecPoints : nullptr);
995                else // to use cache
996                {
997                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
998                            resSecondPoints, entry.blockIndex,
999                            toCache ? &cacheSecPoints : nullptr);
1000                    flowStack.pop_back();
1001                    continue;
1002                }
1003            }
1004            else
1005            {
1006                cblocksToCache.increase(entry.blockIndex);
1007                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1008                            cblocksToCache.count(entry.blockIndex) << std::endl;
1009                // back, already visited
1010                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1011                flowStack.pop_back();
1012                continue;
1013            }
1014        }
1015       
1016        /*if (!callStack.empty() &&
1017            entry.blockIndex == callStack.top().callBlock &&
1018            entry.nextIndex-1 == callStack.top().callNextIndex)
1019            callStack.pop(); // just return from call
1020        */
1021        if (entry.nextIndex < cblock.nexts.size())
1022        {
1023            /*if (cblock.nexts[entry.nextIndex].isCall)
1024                callStack.push({ entry.blockIndex, entry.nextIndex,
1025                            cblock.nexts[entry.nextIndex].block });*/
1026            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1027            entry.nextIndex++;
1028        }
1029        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1030                // if have any call then go to next block
1031                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1032                 !cblock.haveReturn && !cblock.haveEnd)
1033        {
1034            // add toResolveMap ssaIds inside called routines
1035            for (const auto& next: cblock.nexts)
1036                if (next.isCall)
1037                {
1038                    const RoutineData& rdata = routineMap.find(next.block)->second;
1039                    for (const auto& v: rdata.rbwSSAIdMap)
1040                        alreadyReadMap.insert({v.first, entry.blockIndex });
1041                    for (const auto& v: rdata.lastSSAIdMap)
1042                        alreadyReadMap.insert({v.first, entry.blockIndex });
1043                }
1044           
1045            flowStack.push_back({ entry.blockIndex+1, 0 });
1046            entry.nextIndex++;
1047        }
1048        else // back
1049        {
1050            // remove old to resolve in leaved way to allow collecting next ssaId
1051            // before write (can be different due to earlier visit)
1052            for (const auto& next: cblock.nexts)
1053                if (next.isCall)
1054                {
1055                    const RoutineData& rdata = routineMap.find(next.block)->second;
1056                    for (const auto& v: rdata.rbwSSAIdMap)
1057                    {
1058                        auto it = alreadyReadMap.find(v.first);
1059                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1060                            alreadyReadMap.erase(it);
1061                    }
1062                    for (const auto& v: rdata.lastSSAIdMap)
1063                    {
1064                        auto it = alreadyReadMap.find(v.first);
1065                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1066                            alreadyReadMap.erase(it);
1067                    }
1068                }
1069           
1070            for (const auto& sentry: cblock.ssaInfoMap)
1071            {
1072                auto it = alreadyReadMap.find(sentry.first);
1073                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1074                    // remove old to resolve in leaved way to allow collecting next ssaId
1075                    // before write (can be different due to earlier visit)
1076                    alreadyReadMap.erase(it);
1077            }
1078            std::cout << "  popresolv" << std::endl;
1079           
1080            if (cblocksToCache.count(entry.blockIndex)==2 &&
1081                !resSecondPointsCache.hasKey(entry.blockIndex))
1082                // add to cache
1083                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1084                            entry.blockIndex);
1085           
1086            flowStack.pop_back();
1087        }
1088    }
1089   
1090    if (toCache)
1091        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1092}
1093
1094static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1095                size_t routineBlock)
1096{
1097    for (const auto& entry: src)
1098    {
1099        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1100                cxuint(entry.first.index) << ":";
1101        for (size_t v: entry.second)
1102            std::cout << " " << v;
1103        std::cout << std::endl;
1104        // insert if not inserted
1105        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1106        if (res.second)
1107            continue; // added new
1108        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1109        res.first->second.routines.push_back(routineBlock);
1110        // add new ways
1111        for (size_t ssaId: entry.second)
1112            destEntry.insertValue(ssaId);
1113        std::cout << "    :";
1114        for (size_t v: destEntry)
1115            std::cout << " " << v;
1116        std::cout << std::endl;
1117    }
1118}
1119
1120static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1121{
1122    for (const auto& entry: src)
1123    {
1124        std::cout << "  entry: " << entry.first.regVar << ":" <<
1125                cxuint(entry.first.index) << ":";
1126        for (size_t v: entry.second)
1127            std::cout << " " << v;
1128        std::cout << std::endl;
1129        auto res = dest.insert(entry); // find
1130        if (res.second)
1131            continue; // added new
1132        VectorSet<size_t>& destEntry = res.first->second;
1133        // add new ways
1134        for (size_t ssaId: entry.second)
1135            destEntry.insertValue(ssaId);
1136        std::cout << "    :";
1137        for (size_t v: destEntry)
1138            std::cout << " " << v;
1139        std::cout << std::endl;
1140    }
1141}
1142
1143static void joinRoutineData(RoutineData& dest, const RoutineData& src)
1144{
1145    // insert readBeforeWrite only if doesnt exists in destination
1146    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1147   
1148    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1149   
1150    for (const auto& entry: src.lastSSAIdMap)
1151    {
1152        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1153                cxuint(entry.first.index) << ":";
1154        for (size_t v: entry.second)
1155            std::cout << " " << v;
1156        std::cout << std::endl;
1157        auto res = dest.curSSAIdMap.insert(entry); // find
1158        VectorSet<size_t>& destEntry = res.first->second;
1159        if (!res.second)
1160        {
1161            // add new ways
1162            for (size_t ssaId: entry.second)
1163                destEntry.insertValue(ssaId);
1164        }
1165        auto rbwit = src.rbwSSAIdMap.find(entry.first);
1166        if (rbwit != src.rbwSSAIdMap.end())
1167            destEntry.eraseValue(rbwit->second);
1168        std::cout << "    :";
1169        for (size_t v: destEntry)
1170            std::cout << " " << v;
1171        std::cout << std::endl;
1172    }
1173}
1174
1175static void reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1176            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
1177            SSAReplacesMap& ssaReplacesMap, SSAEntry& ssaEntry)
1178{
1179    SSAInfo& sinfo = ssaEntry.second;
1180    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1181    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1182    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1183    {
1184        auto& ssaIds = ssaIdsIt->second.ssaIds;
1185       
1186        if (ssaIds.size() >= 2)
1187        {
1188            // reduce to minimal ssaId from all calls
1189            std::sort(ssaIds.begin(), ssaIds.end());
1190            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1191            // insert SSA replaces
1192            size_t minSSAId = ssaIds.front();
1193            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1194                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1195            ssaId = minSSAId+1; // plus one
1196        }
1197        else if (ssaIds.size() == 1)
1198            ssaId = ssaIds.front()+1; // plus one
1199       
1200        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1201                ssaEntry.first.index << ": " << ssaId << std::endl;
1202        // replace smallest ssaId in routineMap lastSSAId entry
1203        // reduce SSAIds replaces
1204        for (size_t rblock: ssaIdsIt->second.routines)
1205            routineMap.find(rblock)->second.lastSSAIdMap[ssaEntry.first] =
1206                            VectorSet<size_t>({ ssaId-1 });
1207        // finally remove from container (because obsolete)
1208        retSSAIdMap.erase(ssaIdsIt);
1209    }
1210}
1211
1212static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry)
1213{
1214    const SSAInfo& sinfo = ssaEntry.second;
1215    // put first SSAId before write
1216    if (sinfo.readBeforeWrite)
1217    {
1218        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1219        rdata.rbwSSAIdMap.insert({ ssaEntry.first, sinfo.ssaIdBefore });
1220    }
1221   
1222    if (sinfo.ssaIdChange != 0)
1223    {
1224        // put last SSAId
1225        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1226        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1227        if (!res.second)
1228        {
1229            // if not inserted
1230            VectorSet<size_t>& ssaIds = res.first->second;
1231            if (sinfo.readBeforeWrite)
1232                ssaIds.eraseValue(sinfo.ssaIdBefore);
1233            ssaIds.insertValue(sinfo.ssaIdLast);
1234        }
1235    }
1236}
1237
1238static void initializePrevRetSSAIds(const RetSSAIdMap& retSSAIdMap,
1239            const RoutineData& rdata, FlowStackEntry& entry)
1240{
1241    for (const auto& v: rdata.lastSSAIdMap)
1242    {
1243        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1244        if (!res.second)
1245            continue; // already added, do not change
1246        auto rfit = retSSAIdMap.find(v.first);
1247        if (rfit != retSSAIdMap.end())
1248            res.first->second = rfit->second;
1249    }
1250}
1251
1252static void revertRetSSAIdMap(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1253            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1254{
1255    // revert retSSAIdMap
1256    for (auto v: entry.prevRetSSAIdSets)
1257    {
1258        auto rfit = retSSAIdMap.find(v.first);
1259        if (rdata!=nullptr)
1260        {
1261            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1262            for (size_t ssaId: rfit->second.ssaIds)
1263                ssaIds.eraseValue(ssaId);
1264        }
1265       
1266        if (!v.second.ssaIds.empty())
1267            rfit->second = v.second;
1268        else // erase if empty
1269            retSSAIdMap.erase(v.first);
1270       
1271        if (rdata!=nullptr)
1272        {
1273            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1274            for (size_t ssaId: v.second.ssaIds)
1275                ssaIds.insertValue(ssaId);
1276            if (v.second.ssaIds.empty())
1277                ssaIds.push_back(curSSAIdMap[v.first]-1);
1278           
1279            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1280                    v.first.regVar << ":" << v.first.index << ":";
1281            for (size_t v: ssaIds)
1282                std::cout << " " << v;
1283            std::cout << std::endl;
1284        }
1285    }
1286}
1287
1288static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1289            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1290{
1291    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1292    std::cout << " pushentry " << entry.blockIndex << ": " <<
1293                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1294    for (size_t v: ssaIds)
1295        std::cout << " " << v;
1296    std::cout << std::endl;
1297   
1298    // if cblock with some children
1299    if (nextSSAId != curSSAId)
1300        ssaIds.eraseValue(nextSSAId-1);
1301   
1302    // push previous SSAId to lastSSAIdMap (later will be replaced)
1303    /*std::cout << "call back: " << nextSSAId << "," <<
1304            (curSSAId) << std::endl;*/
1305    ssaIds.insertValue(curSSAId-1);
1306   
1307    std::cout << " popentry " << entry.blockIndex << ": " <<
1308                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1309    for (size_t v: ssaIds)
1310        std::cout << " " << v;
1311    std::cout << std::endl;
1312}
1313
1314static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
1315        const ResSecondPointsToCache& subroutToCache,
1316        SimpleCache<size_t, RoutineData>& subroutinesCache,
1317        const std::unordered_map<size_t, RoutineData>& routineMap, RoutineData& rdata,
1318        size_t routineBlock)
1319{
1320    std::cout << "--------- createRoutineData ----------------\n";
1321    std::vector<bool> visited(codeBlocks.size(), false);
1322    std::deque<FlowStackEntry> flowStack;
1323    flowStack.push_back({ routineBlock, 0 });
1324   
1325    while (!flowStack.empty())
1326    {
1327        FlowStackEntry& entry = flowStack.back();
1328        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1329       
1330        if (entry.nextIndex == 0)
1331        {
1332            // process current block
1333            RoutineData* cachedRdata = subroutinesCache.use(entry.blockIndex);
1334            if (cachedRdata != nullptr && flowStack.size() > 1)
1335            {
1336                // TODO: correctly join this path with routine data
1337                // currently does not include further substitutions in visited path
1338                std::cout << "procret2: " << entry.blockIndex << std::endl;
1339                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
1340                std::cout << "procretend2" << std::endl;
1341                flowStack.pop_back();
1342                continue;
1343            }
1344            else if (!visited[entry.blockIndex])
1345            {
1346                std::cout << "proc: " << entry.blockIndex << std::endl;
1347                visited[entry.blockIndex] = true;
1348               
1349                for (const auto& ssaEntry: cblock.ssaInfoMap)
1350                    // put data to routine data
1351                    updateRoutineData(rdata, ssaEntry);
1352            }
1353            else if (subroutToCache.count(entry.blockIndex)!=0)
1354            {   // begin caching
1355                flowStack.pop_back();
1356                continue;
1357            }
1358        }
1359       
1360        // join and skip calls
1361        for (; entry.nextIndex < cblock.nexts.size() &&
1362                    cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1363            joinRoutineData(rdata, routineMap.find(
1364                            cblock.nexts[entry.nextIndex].block)->second);
1365       
1366        if (entry.nextIndex < cblock.nexts.size())
1367        {
1368            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1369            entry.nextIndex++;
1370        }
1371        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1372                // if have any call then go to next block
1373                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1374                 !cblock.haveReturn && !cblock.haveEnd)
1375        {
1376            flowStack.push_back({ entry.blockIndex+1, 0 });
1377            entry.nextIndex++;
1378        }
1379        else
1380        {
1381            if (cblock.haveReturn)
1382            {
1383                std::cout << "procret: " << entry.blockIndex << std::endl;
1384                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
1385                std::cout << "procretend" << std::endl;
1386            }
1387           
1388            for (const auto& ssaEntry: cblock.ssaInfoMap)
1389            {
1390                if (ssaEntry.first.regVar == nullptr)
1391                    continue;
1392                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
1393                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
1394                    ssaEntry.second.ssaIdLast+1 : curSSAId;
1395               
1396                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1397                            ":" << ssaEntry.first.index << ": " <<
1398                            nextSSAId << ", " << curSSAId << std::endl;
1399               
1400                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
1401            }
1402           
1403            flowStack.pop_back();
1404        }
1405    }
1406    std::cout << "--------- createRoutineData end ------------\n";
1407}
1408
1409
1410void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
1411{
1412    if (codeBlocks.empty())
1413        return;
1414    usageHandler.rewind();
1415    auto cbit = codeBlocks.begin();
1416    AsmRegVarUsage rvu;
1417    if (!usageHandler.hasNext())
1418        return; // do nothing if no regusages
1419    rvu = usageHandler.nextUsage();
1420   
1421    cxuint regRanges[MAX_REGTYPES_NUM*2];
1422    cxuint realRegsCount[MAX_REGTYPES_NUM];
1423    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
1424    size_t regTypesNum;
1425    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1426   
1427    while (true)
1428    {
1429        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
1430        {
1431            cbit->usagePos = usageHandler.getReadPos();
1432            ++cbit;
1433        }
1434        if (cbit == codeBlocks.end())
1435            break;
1436        // skip rvu's before codeblock
1437        while (rvu.offset < cbit->start && usageHandler.hasNext())
1438            rvu = usageHandler.nextUsage();
1439        if (rvu.offset < cbit->start)
1440            break;
1441       
1442        cbit->usagePos = usageHandler.getReadPos();
1443        while (rvu.offset < cbit->end)
1444        {
1445            // process rvu
1446            // only if regVar
1447            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1448            {
1449                auto res = cbit->ssaInfoMap.insert(
1450                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
1451               
1452                SSAInfo& sinfo = res.first->second;
1453                if (res.second)
1454                    sinfo.firstPos = rvu.offset;
1455                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
1456                    // if first write RVU instead read RVU
1457                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
1458                    sinfo.readBeforeWrite = true;
1459                /* change SSA id only for write-only regvars -
1460                 *   read-write place can not have two different variables */
1461                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
1462                    sinfo.ssaIdChange++;
1463                if (rvu.regVar==nullptr)
1464                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
1465                            sinfo.ssaId = sinfo.ssaIdLast = 0;
1466            }
1467            // get next rvusage
1468            if (!usageHandler.hasNext())
1469                break;
1470            rvu = usageHandler.nextUsage();
1471        }
1472        ++cbit;
1473    }
1474   
1475    size_t rbwCount = 0;
1476    size_t wrCount = 0;
1477   
1478    SimpleCache<size_t, RoutineData> subroutinesCache(codeBlocks.size()<<3);
1479   
1480    std::deque<CallStackEntry> callStack;
1481    std::deque<FlowStackEntry> flowStack;
1482    // total SSA count
1483    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
1484    // last SSA ids map from returns
1485    RetSSAIdMap retSSAIdMap;
1486    // last SSA ids in current way in code flow
1487    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
1488    // routine map - routine datas map, value - last SSA ids map
1489    std::unordered_map<size_t, RoutineData> routineMap;
1490    // key - current res first key, value - previous first key and its flowStack pos
1491    PrevWaysIndexMap prevWaysIndexMap;
1492    // to track ways last block indices pair: block index, flowStackPos)
1493    std::pair<size_t, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
1494   
1495    std::vector<bool> waysToCache(codeBlocks.size(), false);
1496    // subroutToCache - true if given block begin subroutine to cache
1497    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
1498    std::vector<bool> visited(codeBlocks.size(), false);
1499    flowStack.push_back({ 0, 0 });
1500   
1501    while (!flowStack.empty())
1502    {
1503        FlowStackEntry& entry = flowStack.back();
1504        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1505       
1506        if (entry.nextIndex == 0)
1507        {
1508            // process current block
1509            if (!visited[entry.blockIndex])
1510            {
1511                std::cout << "proc: " << entry.blockIndex << std::endl;
1512                visited[entry.blockIndex] = true;
1513               
1514                for (auto& ssaEntry: cblock.ssaInfoMap)
1515                {
1516                    SSAInfo& sinfo = ssaEntry.second;
1517                    if (ssaEntry.first.regVar==nullptr)
1518                    {
1519                        // TODO - pass registers through SSA marking and resolving
1520                        sinfo.ssaIdChange = 0; // zeroing SSA changes
1521                        continue; // no change for registers
1522                    }
1523                   
1524                    reduceSSAIds(curSSAIdMap, retSSAIdMap, routineMap, ssaReplacesMap,
1525                                 ssaEntry);
1526                   
1527                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1528                   
1529                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
1530                    if (totalSSACount == 0)
1531                    {
1532                        // first read before write at all, need change totalcount, ssaId
1533                        ssaId++;
1534                        totalSSACount++;
1535                        entry.prevSSAIds.insert({ ssaEntry.first, ssaId });
1536                    }
1537                    else if (ssaId != totalSSACount) // save old ssaId
1538                        entry.prevSSAIds.insert({ ssaEntry.first, ssaId });
1539                   
1540                    sinfo.ssaId = totalSSACount;
1541                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
1542                    sinfo.ssaIdBefore = ssaId-1;
1543                   
1544                    totalSSACount += sinfo.ssaIdChange;
1545                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
1546                    //totalSSACount = std::max(totalSSACount, ssaId);
1547                    ssaId = totalSSACount;
1548                   
1549                    if (!callStack.empty())
1550                        // put data to routine data
1551                        updateRoutineData(routineMap.find(
1552                            callStack.back().routineBlock)->second, ssaEntry);
1553                       
1554                    // count read before writes (for cache weight)
1555                    if (sinfo.readBeforeWrite)
1556                        rbwCount++;
1557                    if (sinfo.ssaIdChange!=0)
1558                        wrCount++;
1559                }
1560            }
1561            else
1562            {
1563                // TODO: correctly join this path with routine data
1564                // currently does not include further substitutions in visited path
1565                RoutineData* rdata = nullptr;
1566                if (!callStack.empty())
1567                    rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1568               
1569                if (!entry.isCall && rdata != nullptr)
1570                {
1571                    std::cout << "procret2: " << entry.blockIndex << std::endl;
1572                    joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1573                    std::cout << "procretend2" << std::endl;
1574                }
1575               
1576                // handle caching for res second point
1577                cblocksToCache.increase(entry.blockIndex);
1578                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1579                            cblocksToCache.count(entry.blockIndex) << std::endl;
1580                // back, already visited
1581                flowStack.pop_back();
1582               
1583                size_t curWayBIndex = flowStack.back().blockIndex;
1584                if (lastCommonCacheWayPoint.first != SIZE_MAX)
1585                {
1586                    // mark point of way to cache (res first point)
1587                    waysToCache[lastCommonCacheWayPoint.first] = true;
1588                    std::cout << "mark to pfcache " <<
1589                            lastCommonCacheWayPoint.first << ", " <<
1590                            curWayBIndex << std::endl;
1591                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
1592                }
1593                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
1594                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
1595                continue;
1596            }
1597        }
1598       
1599        if (!callStack.empty() &&
1600            entry.blockIndex == callStack.back().callBlock &&
1601            entry.nextIndex-1 == callStack.back().callNextIndex)
1602        {
1603            std::cout << " ret: " << entry.blockIndex << std::endl;
1604            const RoutineData& prevRdata =
1605                    routineMap.find(callStack.back().routineBlock)->second;
1606            RoutineData myRoutineData;
1607            createRoutineData(codeBlocks, cblocksToCache, subroutinesCache,
1608                        routineMap, myRoutineData, callStack.back().routineBlock);
1609            callStack.pop_back(); // just return from call
1610            if (!callStack.empty())
1611                // put to parent routine
1612                joinRoutineData(routineMap.find(callStack.back().routineBlock)->second,
1613                                    prevRdata);
1614        }
1615       
1616        if (entry.nextIndex < cblock.nexts.size())
1617        {
1618            bool isCall = false;
1619            if (cblock.nexts[entry.nextIndex].isCall)
1620            {
1621                std::cout << " call: " << entry.blockIndex << std::endl;
1622                callStack.push_back({ entry.blockIndex, entry.nextIndex,
1623                            cblock.nexts[entry.nextIndex].block });
1624                routineMap.insert({ cblock.nexts[entry.nextIndex].block, { } });
1625                isCall = true;
1626            }
1627           
1628            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0, isCall });
1629            entry.nextIndex++;
1630        }
1631        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1632                // if have any call then go to next block
1633                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1634                 !cblock.haveReturn && !cblock.haveEnd)
1635        {
1636            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1637            {
1638                for (const NextBlock& next: cblock.nexts)
1639                    if (next.isCall)
1640                    {
1641                        //std::cout << "joincall:"<< next.block << std::endl;
1642                        auto it = routineMap.find(next.block); // must find
1643                        initializePrevRetSSAIds(retSSAIdMap, it->second, entry);
1644                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1645                    }
1646            }
1647            flowStack.push_back({ entry.blockIndex+1, 0, false });
1648            entry.nextIndex++;
1649        }
1650        else // back
1651        {
1652            RoutineData* rdata = nullptr;
1653            if (!callStack.empty())
1654                rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1655           
1656            if (cblock.haveReturn && rdata != nullptr)
1657            {
1658                std::cout << "procret: " << entry.blockIndex << std::endl;
1659                joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1660                std::cout << "procretend" << std::endl;
1661            }
1662           
1663            // revert retSSAIdMap
1664            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
1665            //
1666           
1667            for (const auto& ssaEntry: cblock.ssaInfoMap)
1668            {
1669                if (ssaEntry.first.regVar == nullptr)
1670                    continue;
1671               
1672                auto it = entry.prevSSAIds.find(ssaEntry.first);
1673                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
1674                const size_t nextSSAId = curSSAId;
1675                if (it == entry.prevSSAIds.end())
1676                    curSSAId -= ssaEntry.second.ssaIdChange;
1677                else // if found
1678                    curSSAId = it->second;
1679               
1680                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1681                            ":" << ssaEntry.first.index << ": " <<
1682                            nextSSAId << ", " << curSSAId << std::endl;
1683               
1684                if (rdata!=nullptr)
1685                    updateRoutineCurSSAIdMap(rdata, ssaEntry, entry, curSSAId, nextSSAId);
1686            }
1687           
1688            std::cout << "pop: " << entry.blockIndex << std::endl;
1689            flowStack.pop_back();
1690            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
1691                    lastCommonCacheWayPoint.second >= flowStack.size())
1692            {
1693                lastCommonCacheWayPoint =
1694                        { flowStack.back().blockIndex, flowStack.size()-1 };
1695                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
1696            }
1697        }
1698    }
1699   
1700    /**********
1701     * after that, we find points to resolve conflicts
1702     **********/
1703    flowStack.clear();
1704    std::deque<FlowStackEntry2> flowStack2;
1705   
1706    std::fill(visited.begin(), visited.end(), false);
1707    flowStack2.push_back({ 0, 0 });
1708   
1709    SimpleCache<size_t, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
1710    SimpleCache<size_t, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
1711   
1712    while (!flowStack2.empty())
1713    {
1714        FlowStackEntry2& entry = flowStack2.back();
1715        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1716       
1717        if (entry.nextIndex == 0)
1718        {
1719            // process current block
1720            if (!visited[entry.blockIndex])
1721                visited[entry.blockIndex] = true;
1722            else
1723            {
1724                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
1725                            prevWaysIndexMap, waysToCache, cblocksToCache,
1726                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
1727               
1728                // join routine data
1729                /*auto rit = routineMap.find(entry.blockIndex);
1730                if (rit != routineMap.end())
1731                    // just join with current routine data
1732                    joinRoutineData(routineMap.find(
1733                            callStack.back().routineBlock)->second, rit->second);*/
1734                /*if (!callStack.empty())
1735                    collectSSAIdsForCall(flowStack2, callStack, visited,
1736                            routineMap, codeBlocks);*/
1737                // back, already visited
1738                flowStack2.pop_back();
1739                continue;
1740            }
1741        }
1742       
1743        if (entry.nextIndex < cblock.nexts.size())
1744        {
1745            flowStack2.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1746            entry.nextIndex++;
1747        }
1748        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1749                // if have any call then go to next block
1750                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1751                 !cblock.haveReturn && !cblock.haveEnd)
1752        {
1753            flowStack2.push_back({ entry.blockIndex+1, 0 });
1754            entry.nextIndex++;
1755        }
1756        else // back
1757        {
1758            if (cblocksToCache.count(entry.blockIndex)==2 &&
1759                !resSecondPointsCache.hasKey(entry.blockIndex))
1760                // add to cache
1761                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1762                            entry.blockIndex);
1763            flowStack2.pop_back();
1764        }
1765    }
1766}
1767
1768void AsmRegAllocator::applySSAReplaces()
1769{
1770    /* prepare SSA id replaces */
1771    struct MinSSAGraphNode
1772    {
1773        size_t minSSAId;
1774        bool visited;
1775        std::unordered_set<size_t> nexts;
1776        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
1777    };
1778    struct MinSSAGraphStackEntry
1779    {
1780        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
1781        std::unordered_set<size_t>::const_iterator nextIt;
1782        size_t minSSAId;
1783    };
1784   
1785    for (auto& entry: ssaReplacesMap)
1786    {
1787        std::vector<SSAReplace>& replaces = entry.second;
1788        std::sort(replaces.begin(), replaces.end());
1789        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
1790        std::vector<SSAReplace> newReplaces;
1791       
1792        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
1793       
1794        auto it = replaces.begin();
1795        while (it != replaces.end())
1796        {
1797            auto itEnd = std::upper_bound(it, replaces.end(),
1798                            std::make_pair(it->first, size_t(SIZE_MAX)));
1799            {
1800                MinSSAGraphNode& node = ssaGraphNodes[it->first];
1801                node.minSSAId = std::min(node.minSSAId, it->second);
1802                for (auto it2 = it; it2 != itEnd; ++it2)
1803                    node.nexts.insert(it->second);
1804            }
1805            it = itEnd;
1806        }
1807        // propagate min value
1808        std::stack<MinSSAGraphStackEntry> minSSAStack;
1809        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
1810                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
1811        {
1812            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
1813            // traverse with minimalize SSA id
1814            while (!minSSAStack.empty())
1815            {
1816                MinSSAGraphStackEntry& entry = minSSAStack.top();
1817                MinSSAGraphNode& node = entry.nodeIt->second;
1818                bool toPop = false;
1819                if (entry.nextIt == node.nexts.begin())
1820                {
1821                    if (!node.visited)
1822                        node.visited = true;
1823                    else
1824                        toPop = true;
1825                }
1826                if (!toPop && entry.nextIt != node.nexts.end())
1827                {
1828                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
1829                    if (nodeIt != ssaGraphNodes.end())
1830                    {
1831                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
1832                                nodeIt->second.minSSAId });
1833                    }
1834                    ++entry.nextIt;
1835                }
1836                else
1837                {
1838                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
1839                    minSSAStack.pop();
1840                    if (!minSSAStack.empty())
1841                    {
1842                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
1843                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
1844                    }
1845                }
1846            }
1847            // skip visited nodes
1848            while (ssaGraphNodeIt != ssaGraphNodes.end())
1849                if (!ssaGraphNodeIt->second.visited)
1850                    break;
1851        }
1852       
1853        for (const auto& entry: ssaGraphNodes)
1854            newReplaces.push_back({ entry.first, entry.second.minSSAId });
1855       
1856        std::sort(newReplaces.begin(), newReplaces.end());
1857        entry.second = newReplaces;
1858    }
1859   
1860    /* apply SSA id replaces */
1861    for (CodeBlock& cblock: codeBlocks)
1862        for (auto& ssaEntry: cblock.ssaInfoMap)
1863        {
1864            auto it = ssaReplacesMap.find(ssaEntry.first);
1865            if (it == ssaReplacesMap.end())
1866                continue;
1867            SSAInfo& sinfo = ssaEntry.second;
1868            std::vector<SSAReplace>& replaces = it->second;
1869            if (sinfo.readBeforeWrite)
1870            {
1871                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1872                                 ssaEntry.second.ssaIdBefore);
1873                if (rit != replaces.end())
1874                    sinfo.ssaIdBefore = rit->second; // replace
1875            }
1876            if (sinfo.ssaIdFirst != SIZE_MAX)
1877            {
1878                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1879                                 ssaEntry.second.ssaIdFirst);
1880                if (rit != replaces.end())
1881                    sinfo.ssaIdFirst = rit->second; // replace
1882            }
1883            if (sinfo.ssaIdLast != SIZE_MAX)
1884            {
1885                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1886                                 ssaEntry.second.ssaIdLast);
1887                if (rit != replaces.end())
1888                    sinfo.ssaIdLast = rit->second; // replace
1889            }
1890        }
1891}
1892
1893struct Liveness
1894{
1895    std::map<size_t, size_t> l;
1896   
1897    Liveness() { }
1898   
1899    void clear()
1900    { l.clear(); }
1901   
1902    void expand(size_t k)
1903    {
1904        if (l.empty())
1905            l.insert(std::make_pair(k, k+1));
1906        else
1907        {
1908            auto it = l.end();
1909            --it;
1910            it->second = k+1;
1911        }
1912    }
1913    void newRegion(size_t k)
1914    {
1915        if (l.empty())
1916            l.insert(std::make_pair(k, k));
1917        else
1918        {
1919            auto it = l.end();
1920            --it;
1921            if (it->first != k && it->second != k)
1922                l.insert(std::make_pair(k, k));
1923        }
1924    }
1925   
1926    void insert(size_t k, size_t k2)
1927    {
1928        auto it1 = l.lower_bound(k);
1929        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
1930            --it1;
1931        if (it1->second < k)
1932            ++it1;
1933        auto it2 = l.lower_bound(k2);
1934        if (it1!=it2)
1935        {
1936            k = std::min(k, it1->first);
1937            k2 = std::max(k2, (--it2)->second);
1938            l.erase(it1, it2);
1939        }
1940        l.insert(std::make_pair(k, k2));
1941    }
1942   
1943    bool contain(size_t t) const
1944    {
1945        auto it = l.lower_bound(t);
1946        if (it==l.begin() && it->first>t)
1947            return false;
1948        if (it==l.end() || it->first>t)
1949            --it;
1950        return it->first<=t && t<it->second;
1951    }
1952   
1953    bool common(const Liveness& b) const
1954    {
1955        auto i = l.begin();
1956        auto j = b.l.begin();
1957        for (; i != l.end() && j != b.l.end();)
1958        {
1959            if (i->first==i->second)
1960            {
1961                ++i;
1962                continue;
1963            }
1964            if (j->first==j->second)
1965            {
1966                ++j;
1967                continue;
1968            }
1969            if (i->first<j->first)
1970            {
1971                if (i->second > j->first)
1972                    return true; // common place
1973                ++i;
1974            }
1975            else
1976            {
1977                if (i->first < j->second)
1978                    return true; // common place
1979                ++j;
1980            }
1981        }
1982        return false;
1983    }
1984};
1985
1986typedef AsmRegAllocator::VarIndexMap VarIndexMap;
1987
1988static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
1989            const AsmSingleVReg& svreg)
1990{
1991    cxuint regType; // regtype
1992    if (svreg.regVar!=nullptr)
1993        regType = svreg.regVar->type;
1994    else
1995        for (regType = 0; regType < regTypesNum; regType++)
1996            if (svreg.index >= regRanges[regType<<1] &&
1997                svreg.index < regRanges[(regType<<1)+1])
1998                break;
1999    return regType;
2000}
2001
2002static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
2003        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
2004        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2005{
2006    size_t ssaId;
2007    if (svreg.regVar==nullptr)
2008        ssaId = 0;
2009    else if (ssaIdIdx==0)
2010        ssaId = ssaInfo.ssaIdBefore;
2011    else if (ssaIdIdx==1)
2012        ssaId = ssaInfo.ssaIdFirst;
2013    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2014        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2015    else // last
2016        ssaId = ssaInfo.ssaIdLast;
2017   
2018    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2019    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2020    const std::vector<size_t>& ssaIdIndices =
2021                vregIndexMap.find(svreg)->second;
2022    return livenesses[regType][ssaIdIndices[ssaId]];
2023}
2024
2025typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
2026
2027struct CLRX_INTERNAL VRegLastPos
2028{
2029    size_t ssaId; // last SSA id
2030    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
2031};
2032
2033/* TODO: add handling calls
2034 * handle many start points in this code (for example many kernel's in same code)
2035 * replace sets by vector, and sort and remove same values on demand
2036 */
2037
2038typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2039
2040static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
2041        const std::vector<CodeBlock>& codeBlocks,
2042        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
2043        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2044        size_t regTypesNum, const cxuint* regRanges)
2045{
2046    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2047    for (const auto& entry: cblock.ssaInfoMap)
2048        if (entry.second.readBeforeWrite)
2049        {
2050            // find last
2051            auto lvrit = lastVRegMap.find(entry.first);
2052            if (lvrit == lastVRegMap.end())
2053                continue; // not found
2054            const VRegLastPos& lastPos = lvrit->second;
2055            FlowStackCIter flit = lastPos.blockChain.back();
2056            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2057            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2058            const std::vector<size_t>& ssaIdIndices =
2059                        vregIndexMap.find(entry.first)->second;
2060            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2061            FlowStackCIter flitEnd = flowStack.end();
2062            --flitEnd; // before last element
2063            // insert live time to last seen position
2064            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2065            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2066            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2067                    toLiveCvt + lastBlk.end);
2068            for (++flit; flit != flitEnd; ++flit)
2069            {
2070                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2071                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2072                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2073            }
2074        }
2075}
2076
2077static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
2078        const std::vector<CodeBlock>& codeBlocks,
2079        const Array<size_t>& codeBlockLiveTimes,
2080        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2081        size_t regTypesNum, const cxuint* regRanges)
2082{
2083    auto flitStart = flowStack.end();
2084    --flitStart;
2085    size_t curBlock = flitStart->blockIndex;
2086    // find step in way
2087    while (flitStart->blockIndex != curBlock) --flitStart;
2088    auto flitEnd = flowStack.end();
2089    --flitEnd;
2090    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2091   
2092    // collect var to check
2093    size_t flowPos = 0;
2094    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2095    {
2096        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2097        for (const auto& entry: cblock.ssaInfoMap)
2098        {
2099            const SSAInfo& sinfo = entry.second;
2100            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2101                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2102            varMap[entry.first] = { lastSSAId, flowPos };
2103        }
2104    }
2105    // find connections
2106    flowPos = 0;
2107    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2108    {
2109        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2110        for (const auto& entry: cblock.ssaInfoMap)
2111        {
2112            const SSAInfo& sinfo = entry.second;
2113            auto varMapIt = varMap.find(entry.first);
2114            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2115                flowPos > varMapIt->second.second ||
2116                sinfo.ssaIdBefore != varMapIt->second.first)
2117                continue;
2118            // just connect
2119           
2120            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2121            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2122            const std::vector<size_t>& ssaIdIndices =
2123                        vregIndexMap.find(entry.first)->second;
2124            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2125           
2126            if (flowPos == varMapIt->second.second)
2127            {
2128                // fill whole loop
2129                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2130                {
2131                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2132                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2133                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2134                }
2135                continue;
2136            }
2137           
2138            size_t flowPos2 = 0;
2139            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2140            {
2141                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2142                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2143                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2144            }
2145            // insert liveness for last block in loop of last SSAId (prev round)
2146            auto flit2 = flitStart + flowPos;
2147            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2148            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2149            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2150                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2151            // insert liveness for first block in loop of last SSAId
2152            flit2 = flitStart + (varMapIt->second.second+1);
2153            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2154            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2155            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2156                    toLiveCvt + lastBlk.end);
2157            // fill up loop end
2158            for (++flit2; flit2 != flitEnd; ++flit2)
2159            {
2160                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2161                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2162                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2163            }
2164        }
2165    }
2166}
2167
2168struct LiveBlock
2169{
2170    size_t start;
2171    size_t end;
2172    size_t vidx;
2173   
2174    bool operator==(const LiveBlock& b) const
2175    { return start==b.start && end==b.end && vidx==b.vidx; }
2176   
2177    bool operator<(const LiveBlock& b) const
2178    { return start<b.start || (start==b.start &&
2179            (end<b.end || (end==b.end && vidx<b.vidx))); }
2180};
2181
2182typedef AsmRegAllocator::LinearDep LinearDep;
2183typedef AsmRegAllocator::EqualToDep EqualToDep;
2184typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2185typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2186
2187static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2188            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2189            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2190            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2191            size_t regTypesNum, const cxuint* regRanges)
2192{
2193    // add linear deps
2194    cxuint count = ldeps[0];
2195    cxuint pos = 1;
2196    cxbyte rvuAdded = 0;
2197    for (cxuint i = 0; i < count; i++)
2198    {
2199        cxuint ccount = ldeps[pos++];
2200        std::vector<size_t> vidxes;
2201        cxuint regType = UINT_MAX;
2202        cxbyte align = rvus[ldeps[pos]].align;
2203        for (cxuint j = 0; j < ccount; j++)
2204        {
2205            rvuAdded |= 1U<<ldeps[pos];
2206            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2207            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2208            {
2209                AsmSingleVReg svreg = {rvu.regVar, k};
2210                auto sit = ssaIdIdxMap.find(svreg);
2211                if (regType==UINT_MAX)
2212                    regType = getRegType(regTypesNum, regRanges, svreg);
2213                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2214                const std::vector<size_t>& ssaIdIndices =
2215                            vregIndexMap.find(svreg)->second;
2216                // push variable index
2217                vidxes.push_back(ssaIdIndices[sit->second]);
2218            }
2219        }
2220        ldepsOut[regType][vidxes[0]].align = align;
2221        for (size_t k = 1; k < vidxes.size(); k++)
2222        {
2223            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2224            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2225        }
2226    }
2227    // add single arg linear dependencies
2228    for (cxuint i = 0; i < rvusNum; i++)
2229        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2230        {
2231            const AsmRegVarUsage& rvu = rvus[i];
2232            std::vector<size_t> vidxes;
2233            cxuint regType = UINT_MAX;
2234            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2235            {
2236                AsmSingleVReg svreg = {rvu.regVar, k};
2237                auto sit = ssaIdIdxMap.find(svreg);
2238                if (regType==UINT_MAX)
2239                    regType = getRegType(regTypesNum, regRanges, svreg);
2240                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2241                const std::vector<size_t>& ssaIdIndices =
2242                            vregIndexMap.find(svreg)->second;
2243                // push variable index
2244                vidxes.push_back(ssaIdIndices[sit->second]);
2245            }
2246            for (size_t j = 1; j < vidxes.size(); j++)
2247            {
2248                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2249                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2250            }
2251        }
2252       
2253    /* equalTo dependencies */
2254    count = edeps[0];
2255    pos = 1;
2256    for (cxuint i = 0; i < count; i++)
2257    {
2258        cxuint ccount = edeps[pos++];
2259        std::vector<size_t> vidxes;
2260        cxuint regType = UINT_MAX;
2261        for (cxuint j = 0; j < ccount; j++)
2262        {
2263            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
2264            // only one register should be set for equalTo depencencies
2265            // other registers in range will be resolved by linear dependencies
2266            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
2267            auto sit = ssaIdIdxMap.find(svreg);
2268            if (regType==UINT_MAX)
2269                regType = getRegType(regTypesNum, regRanges, svreg);
2270            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2271            const std::vector<size_t>& ssaIdIndices =
2272                        vregIndexMap.find(svreg)->second;
2273            // push variable index
2274            vidxes.push_back(ssaIdIndices[sit->second]);
2275        }
2276        for (size_t j = 1; j < vidxes.size(); j++)
2277        {
2278            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2279            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2280        }
2281    }
2282}
2283
2284typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
2285
2286struct EqualStackEntry
2287{
2288    EqualToDepMapCIter etoDepIt;
2289    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
2290};
2291
2292void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
2293{
2294    // construct var index maps
2295    size_t graphVregsCounts[MAX_REGTYPES_NUM];
2296    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
2297    cxuint regRanges[MAX_REGTYPES_NUM*2];
2298    size_t regTypesNum;
2299    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2300   
2301    for (const CodeBlock& cblock: codeBlocks)
2302        for (const auto& entry: cblock.ssaInfoMap)
2303        {
2304            const SSAInfo& sinfo = entry.second;
2305            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2306            VarIndexMap& vregIndices = vregIndexMaps[regType];
2307            size_t& graphVregsCount = graphVregsCounts[regType];
2308            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
2309            size_t ssaIdCount = 0;
2310            if (sinfo.readBeforeWrite)
2311                ssaIdCount = sinfo.ssaIdBefore+1;
2312            if (sinfo.ssaIdChange!=0)
2313            {
2314                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
2315                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
2316            }
2317            if (ssaIdIndices.size() < ssaIdCount)
2318                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
2319           
2320            if (sinfo.readBeforeWrite)
2321                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
2322            if (sinfo.ssaIdChange!=0)
2323            {
2324                // fill up ssaIdIndices (with graph Ids)
2325                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
2326                for (size_t ssaId = sinfo.ssaId+1;
2327                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
2328                    ssaIdIndices[ssaId] = graphVregsCount++;
2329                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
2330            }
2331        }
2332   
2333    // construct vreg liveness
2334    std::deque<FlowStackEntry> flowStack;
2335    std::vector<bool> visited(codeBlocks.size(), false);
2336    // hold last vreg ssaId and position
2337    LastVRegMap lastVRegMap;
2338    // hold start live time position for every code block
2339    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
2340    std::unordered_set<size_t> blockInWay;
2341   
2342    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
2343   
2344    for (size_t i = 0; i < regTypesNum; i++)
2345        livenesses[i].resize(graphVregsCounts[i]);
2346   
2347    size_t curLiveTime = 0;
2348   
2349    while (!flowStack.empty())
2350    {
2351        FlowStackEntry& entry = flowStack.back();
2352        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2353       
2354        if (entry.nextIndex == 0)
2355        {
2356            // process current block
2357            if (!blockInWay.insert(entry.blockIndex).second)
2358            {
2359                // if loop
2360                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
2361                        livenesses, vregIndexMaps, regTypesNum, regRanges);
2362                flowStack.pop_back();
2363                continue;
2364            }
2365           
2366            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
2367            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
2368                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
2369           
2370            for (const auto& sentry: cblock.ssaInfoMap)
2371            {
2372                const SSAInfo& sinfo = sentry.second;
2373                // update
2374                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2375                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2376                FlowStackCIter flit = flowStack.end();
2377                --flit; // to last position
2378                auto res = lastVRegMap.insert({ sentry.first, 
2379                            { lastSSAId, { flit } } });
2380                if (!res.second) // if not first seen, just update
2381                {
2382                    // update last
2383                    res.first->second.ssaId = lastSSAId;
2384                    res.first->second.blockChain.push_back(flit);
2385                }
2386            }
2387           
2388            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
2389            if (!visited[entry.blockIndex])
2390            {
2391                visited[entry.blockIndex] = true;
2392                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
2393                AsmRegVarUsage instrRVUs[8];
2394                cxuint instrRVUsCount = 0;
2395               
2396                size_t oldOffset = cblock.usagePos.readOffset;
2397                std::vector<AsmSingleVReg> readSVRegs;
2398                std::vector<AsmSingleVReg> writtenSVRegs;
2399               
2400                usageHandler.setReadPos(cblock.usagePos);
2401                // register in liveness
2402                while (true)
2403                {
2404                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
2405                    size_t liveTimeNext = curBlockLiveEnd;
2406                    if (usageHandler.hasNext())
2407                    {
2408                        rvu = usageHandler.nextUsage();
2409                        if (rvu.offset >= cblock.end)
2410                            break;
2411                        if (!rvu.useRegMode)
2412                            instrRVUs[instrRVUsCount++] = rvu;
2413                        liveTimeNext = std::min(rvu.offset, cblock.end) -
2414                                cblock.start + curLiveTime;
2415                    }
2416                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
2417                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
2418                    {
2419                        // apply to liveness
2420                        for (AsmSingleVReg svreg: readSVRegs)
2421                        {
2422                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
2423                                    cblock.ssaInfoMap.find(svreg)->second,
2424                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2425                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
2426                                lv.newRegion(curLiveTime); // begin region from this block
2427                            lv.expand(liveTime);
2428                        }
2429                        for (AsmSingleVReg svreg: writtenSVRegs)
2430                        {
2431                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
2432                            ssaIdIdx++;
2433                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
2434                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
2435                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2436                            if (liveTimeNext != curBlockLiveEnd)
2437                                // because live after this instr
2438                                lv.newRegion(liveTimeNext);
2439                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
2440                        }
2441                        // get linear deps and equal to
2442                        cxbyte lDeps[16];
2443                        cxbyte eDeps[16];
2444                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
2445                                        lDeps, eDeps);
2446                       
2447                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
2448                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
2449                                regTypesNum, regRanges);
2450                       
2451                        readSVRegs.clear();
2452                        writtenSVRegs.clear();
2453                        if (!usageHandler.hasNext())
2454                            break; // end
2455                        oldOffset = rvu.offset;
2456                        instrRVUsCount = 0;
2457                    }
2458                    if (rvu.offset >= cblock.end)
2459                        break;
2460                   
2461                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2462                    {
2463                        // per register/singlvreg
2464                        AsmSingleVReg svreg{ rvu.regVar, rindex };
2465                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
2466                            writtenSVRegs.push_back(svreg);
2467                        else // read or treat as reading // expand previous region
2468                            readSVRegs.push_back(svreg);
2469                    }
2470                }
2471                curLiveTime += cblock.end-cblock.start;
2472            }
2473            else
2474            {
2475                // back, already visited
2476                flowStack.pop_back();
2477                continue;
2478            }
2479        }
2480        if (entry.nextIndex < cblock.nexts.size())
2481        {
2482            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2483            entry.nextIndex++;
2484        }
2485        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
2486        {
2487            flowStack.push_back({ entry.blockIndex+1, 0 });
2488            entry.nextIndex++;
2489        }
2490        else // back
2491        {
2492            // revert lastSSAIdMap
2493            blockInWay.erase(entry.blockIndex);
2494            flowStack.pop_back();
2495            if (!flowStack.empty())
2496            {
2497                for (const auto& sentry: cblock.ssaInfoMap)
2498                {
2499                    auto lvrit = lastVRegMap.find(sentry.first);
2500                    if (lvrit != lastVRegMap.end())
2501                    {
2502                        VRegLastPos& lastPos = lvrit->second;
2503                        lastPos.ssaId = sentry.second.ssaIdBefore;
2504                        lastPos.blockChain.pop_back();
2505                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
2506                            lastVRegMap.erase(lvrit);
2507                    }
2508                }
2509            }
2510        }
2511    }
2512   
2513    /// construct liveBlockMaps
2514    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
2515    for (size_t regType = 0; regType < regTypesNum; regType++)
2516    {
2517        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2518        std::vector<Liveness>& liveness = livenesses[regType];
2519        for (size_t li = 0; li < liveness.size(); li++)
2520        {
2521            Liveness& lv = liveness[li];
2522            for (const std::pair<size_t, size_t>& blk: lv.l)
2523                if (blk.first != blk.second)
2524                    liveBlockMap.insert({ blk.first, blk.second, li });
2525            lv.clear();
2526        }
2527        liveness.clear();
2528    }
2529   
2530    // create interference graphs
2531    for (size_t regType = 0; regType < regTypesNum; regType++)
2532    {
2533        InterGraph& interGraph = interGraphs[regType];
2534        interGraph.resize(graphVregsCounts[regType]);
2535        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2536       
2537        auto lit = liveBlockMap.begin();
2538        size_t rangeStart = 0;
2539        if (lit != liveBlockMap.end())
2540            rangeStart = lit->start;
2541        while (lit != liveBlockMap.end())
2542        {
2543            const size_t blkStart = lit->start;
2544            const size_t blkEnd = lit->end;
2545            size_t rangeEnd = blkEnd;
2546            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
2547            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
2548            // collect from this range, variable indices
2549            std::set<size_t> varIndices;
2550            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
2551                varIndices.insert(lit2->vidx);
2552            // push to intergraph as full subgGraph
2553            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
2554                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
2555                    if (vit != vit2)
2556                        interGraph[*vit].insert(*vit2);
2557            // go to next live blocks
2558            rangeStart = rangeEnd;
2559            for (; lit != liveBlockMap.end(); ++lit)
2560                if (lit->start != blkStart && lit->end != blkEnd)
2561                    break;
2562            if (lit == liveBlockMap.end())
2563                break; //
2564            rangeStart = std::max(rangeStart, lit->start);
2565        }
2566    }
2567   
2568    /*
2569     * resolve equalSets
2570     */
2571    for (cxuint regType = 0; regType < regTypesNum; regType++)
2572    {
2573        InterGraph& interGraph = interGraphs[regType];
2574        const size_t nodesNum = interGraph.size();
2575        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
2576        std::vector<bool> visited(nodesNum, false);
2577        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2578       
2579        for (size_t v = 0; v < nodesNum;)
2580        {
2581            auto it = etoDepMap.find(v);
2582            if (it == etoDepMap.end())
2583            {
2584                // is not regvar in equalTo dependencies
2585                v++;
2586                continue;
2587            }
2588           
2589            std::stack<EqualStackEntry> etoStack;
2590            etoStack.push(EqualStackEntry{ it, 0 });
2591           
2592            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2593            const size_t equalSetIndex = equalSetList.size();
2594            equalSetList.push_back(std::vector<size_t>());
2595            std::vector<size_t>& equalSet = equalSetList.back();
2596           
2597            // traverse by this
2598            while (!etoStack.empty())
2599            {
2600                EqualStackEntry& entry = etoStack.top();
2601                size_t vidx = entry.etoDepIt->first; // node index, vreg index
2602                const EqualToDep& eToDep = entry.etoDepIt->second;
2603                if (entry.nextIdx == 0)
2604                {
2605                    if (!visited[vidx])
2606                    {
2607                        // push to this equalSet
2608                        equalSetMap.insert({ vidx, equalSetIndex });
2609                        equalSet.push_back(vidx);
2610                    }
2611                    else
2612                    {
2613                        // already visited
2614                        etoStack.pop();
2615                        continue;
2616                    }
2617                }
2618               
2619                if (entry.nextIdx < eToDep.nextVidxes.size())
2620                {
2621                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
2622                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2623                    entry.nextIdx++;
2624                }
2625                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
2626                {
2627                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
2628                                entry.nextIdx - eToDep.nextVidxes.size()]);
2629                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2630                    entry.nextIdx++;
2631                }
2632                else
2633                    etoStack.pop();
2634            }
2635           
2636            // to first already added node (var)
2637            while (v < nodesNum && !visited[v]) v++;
2638        }
2639    }
2640}
2641
2642typedef AsmRegAllocator::InterGraph InterGraph;
2643
2644struct CLRX_INTERNAL SDOLDOCompare
2645{
2646    const InterGraph& interGraph;
2647    const Array<size_t>& sdoCounts;
2648   
2649    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
2650        : interGraph(_interGraph), sdoCounts(_sdoCounts)
2651    { }
2652   
2653    bool operator()(size_t a, size_t b) const
2654    {
2655        if (sdoCounts[a] > sdoCounts[b])
2656            return true;
2657        return interGraph[a].size() > interGraph[b].size();
2658    }
2659};
2660
2661/* algorithm to allocate regranges:
2662 * from smallest regranges to greatest regranges:
2663 *   choosing free register: from smallest free regranges
2664 *      to greatest regranges:
2665 *         in this same regrange:
2666 *               try to find free regs in regranges
2667 *               try to link free ends of two distinct regranges
2668 */
2669
2670void AsmRegAllocator::colorInterferenceGraph()
2671{
2672    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
2673                    assembler.deviceType);
2674   
2675    for (size_t regType = 0; regType < regTypesNum; regType++)
2676    {
2677        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
2678        InterGraph& interGraph = interGraphs[regType];
2679        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2680        Array<cxuint>& gcMap = graphColorMaps[regType];
2681        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2682        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2683       
2684        const size_t nodesNum = interGraph.size();
2685        gcMap.resize(nodesNum);
2686        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
2687        Array<size_t> sdoCounts(nodesNum);
2688        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
2689       
2690        SDOLDOCompare compare(interGraph, sdoCounts);
2691        std::set<size_t, SDOLDOCompare> nodeSet(compare);
2692        for (size_t i = 0; i < nodesNum; i++)
2693            nodeSet.insert(i);
2694       
2695        cxuint colorsNum = 0;
2696        // firstly, allocate real registers
2697        for (const auto& entry: vregIndexMap)
2698            if (entry.first.regVar == nullptr)
2699                gcMap[entry.second[0]] = colorsNum++;
2700       
2701        for (size_t colored = 0; colored < nodesNum; colored++)
2702        {
2703            size_t node = *nodeSet.begin();
2704            if (gcMap[node] != UINT_MAX)
2705                continue; // already colored
2706            size_t color = 0;
2707            std::vector<size_t> equalNodes;
2708            equalNodes.push_back(node); // only one node, if equalSet not found
2709            auto equalSetMapIt = equalSetMap.find(node);
2710            if (equalSetMapIt != equalSetMap.end())
2711                // found, get equal set from equalSetList
2712                equalNodes = equalSetList[equalSetMapIt->second];
2713           
2714            for (color = 0; color <= colorsNum; color++)
2715            {
2716                // find first usable color
2717                bool thisSame = false;
2718                for (size_t nb: interGraph[node])
2719                    if (gcMap[nb] == color)
2720                    {
2721                        thisSame = true;
2722                        break;
2723                    }
2724                if (!thisSame)
2725                    break;
2726            }
2727            if (color==colorsNum) // add new color if needed
2728            {
2729                if (colorsNum >= maxColorsNum)
2730                    throw AsmException("Too many register is needed");
2731                colorsNum++;
2732            }
2733           
2734            for (size_t nextNode: equalNodes)
2735                gcMap[nextNode] = color;
2736            // update SDO for node
2737            bool colorExists = false;
2738            for (size_t node: equalNodes)
2739            {
2740                for (size_t nb: interGraph[node])
2741                    if (gcMap[nb] == color)
2742                    {
2743                        colorExists = true;
2744                        break;
2745                    }
2746                if (!colorExists)
2747                    sdoCounts[node]++;
2748            }
2749            // update SDO for neighbors
2750            for (size_t node: equalNodes)
2751                for (size_t nb: interGraph[node])
2752                {
2753                    colorExists = false;
2754                    for (size_t nb2: interGraph[nb])
2755                        if (gcMap[nb2] == color)
2756                        {
2757                            colorExists = true;
2758                            break;
2759                        }
2760                    if (!colorExists)
2761                    {
2762                        if (gcMap[nb] == UINT_MAX)
2763                            nodeSet.erase(nb);  // before update we erase from nodeSet
2764                        sdoCounts[nb]++;
2765                        if (gcMap[nb] == UINT_MAX)
2766                            nodeSet.insert(nb); // after update, insert again
2767                    }
2768                }
2769           
2770            for (size_t nextNode: equalNodes)
2771                gcMap[nextNode] = color;
2772        }
2773    }
2774}
2775
2776void AsmRegAllocator::allocateRegisters(cxuint sectionId)
2777{
2778    // before any operation, clear all
2779    codeBlocks.clear();
2780    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
2781    {
2782        vregIndexMaps[i].clear();
2783        interGraphs[i].clear();
2784        linearDepMaps[i].clear();
2785        equalToDepMaps[i].clear();
2786        graphColorMaps[i].clear();
2787        equalSetMaps[i].clear();
2788        equalSetLists[i].clear();
2789    }
2790    ssaReplacesMap.clear();
2791    cxuint maxRegs[MAX_REGTYPES_NUM];
2792    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
2793   
2794    // set up
2795    const AsmSection& section = assembler.sections[sectionId];
2796    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
2797    createSSAData(*section.usageHandler);
2798    applySSAReplaces();
2799    createInterferenceGraph(*section.usageHandler);
2800    colorInterferenceGraph();
2801}
Note: See TracBrowser for help on using the repository browser.